menu-icon
anue logo
熱門時事鉅亨號鉅亨買幣
search icon

A股港股

前DeepSeek核心開發者羅福莉助力!小米突襲開源MiMo-7B大型語言模型

鉅亨網編譯莊閔棻 2025-05-01 21:53

cover image of news article
小米突襲開源 MiMo-7B,70億參數大型語言模型超越 OpenAI 與阿里巴巴。(圖:Shutterstock)

中國科技巨頭小米 (01810-HK) 日前在官方公眾號「Xiaomi MiMo」無預警宣布,正式開源旗下首款推理大型語言模型 MiMo-7B,消息一出震撼整個人工智慧(AI)社群。這款模型從開發到釋出過程全程保密,未曾流出任何消息。

根據官方釋出的技術報告,MiMo-7B 僅使用 70 億參數,卻在兩大關鍵任務:數學推理與程式碼生成中,分別超越 OpenAI 的 o1-mini 以及阿里巴巴 (09988-HK) 320 億參數的 Qwen QwQ-32B-Preview。這一成果代表小米在小參數大型語言模型推理效能上取得重大突破。


值得注意的是,外界普遍猜測此次 MiMo-7B 的問世,與前 DeepSeek 核心成員羅福莉加入小米密切相關。她於 2024 年底進入小米,擁有北京大學語言學碩士背景,曾任職阿里達摩院,並於多個國際頂會發表 AI 論文。

雖然此次技術報告未明確列出羅福莉為作者之一,但最後一位署名「CiCi」的神秘成員被廣泛推測即為她本人。

目前小米已將四個 MiMo-7B 模型版本(包括預訓練模型與強化學習微調版本)全數上傳至 Hugging Face 平台,開放給全球研究人員與開發者免費使用。突顯小米在 AI 領域不僅有技術實力,更有推動開放創新的決心。

MiMo-7B 特別針對複雜推理任務進行優化,其 Base 模型在 BBH 語言推理測試中得分達 75.2,超越 Qwen2.5-7B;經強化學習後的 MiMo-7B-RL 模型更在 AIME 2025 數學測試中取得 55.4 分,明顯勝過 OpenAI 的 o1-mini(50.7 分);而在 LiveCodeBench v6 程式碼測試中拿下 49.3 分,大幅領先 QwQ-32B-Preview 的 39.1 分。

根據小米,MiMo-7B 採用三階段混合資料訓練策略,數學與程式碼相關數據最終佔比達 70%,擴展上下文長度至 32K。同時引入名為 「多令牌預測」(MTP)技術,可同步預測多個字元(token),大幅提升推理速度與生成效率。

在強化學習階段,小米精選了 13 萬條高難度、可驗證數據,並設計稀疏獎勵補強機制與分層架構,強化模型在高難度任務中的準確性。此外,也透過動態重採樣技術,防止模型過度學習簡單樣本。

不只如此,小米也同步開發名為 Seamless Rollout Engine 的訓練平台,整合非同步獎勵與連續採樣機制。根據報告,此平台可讓訓練速度提升 2.29 倍,驗證速度提升 1.96 倍,顯著縮短大型語言模型的開發週期,讓 AI 模型部署更具效率。

MiMo-7B 的發布不僅展示小米在 AI 技術的積累,也突顯出其在大型語言模型領域的長遠規劃。從訓練資料選擇、架構優化、平台開發,到技術開源,小米正在積極擴展其在 AI 產業鏈上的影響力。未來,MiMo-7B 是否會導入小米旗下產品(如手機、智慧家庭)應用,值得持續關注。



Empty