Meta: Llama 3.2 11B Vision Instruct
Meta: Llama 3.2 11B Vision Instruct est un modèle multimodal conçu pour compréhension vision-langage. Il associe la gestion multimodale des entrées et la compréhension d’images, un contexte de 131K tokens et un profil à faible coût pour un travail fiable sur vision-language understanding and content analysis.
Input
$0.24/1M
Output
$0.24/1M
Cached
$0.01/1M
Batch
$0.03/1M