Meta: Llama 3.2 11B Vision Instruct
Meta: Llama 3.2 11B Vision Instruct è un modello multimodale pensato per comprensione visione-linguaggio. Unisce la gestione multimodale degli input e la comprensione delle immagini, un contesto di 131K tokens e un profilo a basso costo per un lavoro affidabile in vision-language understanding and content analysis.
Input
$0.24/1M
Output
$0.24/1M
Cached
$0.01/1M
Batch
$0.03/1M