Meta: Llama 3.2 11B Vision Instruct
Meta: Llama 3.2 11B Vision Instruct é um modelo multimodal criado para compreensão visão-linguagem. Ele combina o tratamento multimodal de entradas e a compreensão de imagens, um contexto de 131K tokens e um perfil baixo custo para entregar trabalho confiável em vision-language understanding and content analysis.
Input
$0.24/1M
Output
$0.24/1M
Cached
$0.01/1M
Batch
$0.03/1M