Meta: Llama 3.2 11B Vision Instruct
Meta: Llama 3.2 11B Vision Instruct ist ein multimodal-Modell für Vision-Sprache-Verständnis. Es verbindet multimodale Eingabeverarbeitung und Bildverständnis, einen Kontext von 131K tokens und ein kostengünstig-Profil für zuverlässige Arbeit über vision-language understanding and content analysis.
Input
$0.24/1M
Output
$0.24/1M
Cached
$0.01/1M
Batch
$0.03/1M