MoE
A股
開源 AI 模型領域再次迎來重磅選手。小米 (01810-HK) 近日正式發布並開源全新大型語言模型 MiMo-V2-Flash。這款模型總參數達 3,090 億,活躍參數為 150 億,採用專家混合架構 (MoE)。MiMo-V2-Flash 性能不僅能與 DeepSeek-V3.2、Kimi-K2 等頂尖開源模型抗衡,更在架構設計上激進創新,將推理速度拉升至每秒 150 tokens,且成本極低,每百萬 token 輸入僅需 0.1 美元。
2025-12-17