Liquid AI: LFM2-24B-A2B
LiquidAI: LFM2-24B-A2B एक टेक्स्ट मॉडल है, जिसे सामान्य चैट, विश्लेषण और production use के लिए बनाया गया है। यह कम latency और efficient inference, 33K tokens का context और कम लागत profile जोड़कर general chat, analysis, and production workloads में भरोसेमंद काम करता है। यह तब व्यावहारिक विकल्प है जब latency, cost और throughput महत्वपूर्ण हो, खासकर उन टीमों के लिए जिन्हें स्थिर output,
Input
$0.03/1M
Output
$0.12/1M
Cached
$0.01/1M
Batch
$0.01/1M