Meta: Llama 3.2 11B Vision Instruct
Meta: Llama 3.2 11B Vision Instruct es un modelo multimodal pensado para comprensión visión-lenguaje. Combina el manejo multimodal de entradas y la comprensión de imágenes, un contexto de 131K tokens y un perfil bajo costo para trabajar con fiabilidad en vision-language understanding and content analysis.
Input
$0.24/1M
Output
$0.24/1M
Cached
$0.01/1M
Batch
$0.03/1M