鉅亨網新聞中心
小米 (01810-HK) 於週二(28 日)宣布旗下最強模型 MiMo-V2.5 系列,採 MIT 授權協議,允許商業推理部署與二次訓練,無需額外授權。此次開源由小米 AI 負責人羅福莉帶隊研發,並同步推出 100 兆 Token 免費激勵計畫。

MiMo-V2.5-Pro 為混合專家架構(MoE)模型,總參數量達 1.02 兆(1.02T),其中 420 億(42B)個啟動參數,支援最長 100 萬 Token 的超長上下文處理,Token 效率相較前代大幅提升。
模型採局部滑動視窗注意力(SWA)與全局注意力(GA)以 6:1 比例交錯設計,可在長上下文場景下將 KV 快取記憶體佔用縮減近 7 倍,同時維持效能表現。
此外,內建輕量級多標記預測(MTP)模組,可將輸出吞吐量提升約三倍,並加速強化學習部署。
預訓練規模方面,MiMo-V2.5-Pro 使用 27 兆(27T)個 Token、FP8 混合精度進行訓練,原生序列長度 32K,再透過上下文擴展至 100 萬 Token。
另一款 MiMo-V2.5 則是一個 3,100 億(310B)參數的稀疏 MoE 多模態模型,啟動參數 150 億(15B),以 48 兆 Token 訓練,整合自研視覺與音訊編碼器,具備跨模態理解能力。
小米公布的最新評測結果顯示,MiMo-V2.5-Pro 在 GDPVal-AA(Elo)、Claw-Eval(Pass^3)等多項基準測試中,超越了 DeepSeek 最新開源的 DeepSeek-V4-Pro,也優於甫發布不久的 Kimi K2.6 等主流閉源模型,總體排名第一。
MiMo-V2.5 則在 Claw-Eval Text、Terminal-Bench 2.0、SWE-Bench Pro 等多項軟體工程及代理任務評測中,大幅領先 DeepSeek-V4-Flash。
開源首日,MiMo-V2.5-Pro 即宣布完成與阿里巴巴 (09988-HK) 平頭哥、亞馬遜 (AMZN-US) 雲端運算服務(基於 Trainium2 晶片)、超微半導體 (AMD-US) (ROCm 開源軟體棧)、百度 (09888-HK) 崑崙芯、燧原科技、沐曦 (688802-CN) 、天數智芯 (09903-HK) 共七家晶片廠商的接入適配,同步完成 SGLang 與 vLLM 兩大主流推理框架的 Day 0 適配。
與此同時,小米也同步推出「MiMo Orbit 計畫」,涵蓋兩大方向:
百兆 Token 創造者激勵計畫:面向全球 AI 用戶,於 2026 年 4 月 28 日至 5 月 28 日期間免費發放共計 100 兆 Token 權益,通過審核者最高可獲得價值人民幣 659 元的 Max 檔位 Token Plan,額度發完為止。
代理生態共建計畫:面向全球代理框架團隊,提供 Token 免費支持,並共同舉辦 AI Hackathon 等活動,目前已與 OpenCode、Hermes Agent、KiloCode 等框架廠商展開深度合作。
此次小米 MiMo-V2.5-Pro 在測評上直接挑戰 DeepSeek,標誌著中國國產大模型的開源競爭已進入白熱化階段。
業界人士指出,「Day 0」晶片適配已從加分項演變為上架門檻,而百億規模的 Token 免費激勵與代理生態佈局,也顯示整個行業的競爭重心正從「拼參數」轉向「拼應用落地」。
上一篇
下一篇