menu-icon
anue logo
熱門時事鉅亨號鉅亨買幣
search icon

美股

聽懂人話不稀奇!Figure新模型Helix 能讓兩個機器人互相理解幫忙

鉅亨網編輯林羿君 綜合報導 2025-02-21 16:50

cover image of news article
聽懂人話不稀奇!Figure新模型Helix 能讓兩個機器人互相理解幫忙。(圖:截自Figure)

與 OpenAI「分手」不久,美國人形機器人公司 Figure 重磅推出通用型視覺語言動作(VLA)模型-Helix,不僅能讓兩個人形機器人聽從指令,還能互相幫助、互相理解,合作處理家務。

Figure 創辦人 Brett Adcock 在 X 平台發文稱,Helix 團隊的目標是攻克通用機器人技術——讓每個家庭都能擁有一台機器人,雖然還有很長的路要走,但目前的成果已經初見成效。


具體來說,Helix 是一種通用的視覺 - 語言 - 行動(VLA)模型,它融合了感知、語言理解和學習控制能力,旨在解決機器人技術中長期存在的多個難題。

根據 Figure 的說法,Helix 在多個方面實現了業界首創:

  • 全上半身靈活操控:首個能對仿人機器人完整上半身(包括手腕、軀幹、頭部、每根手指)實現高速連續控制的 VLA 模型。
  • 多機器人合作:首次讓雙機器人系統合作完成長期複雜任務
  • 萬物皆可抓取:只需一句自然語言指令,就能抓取幾乎所有家庭小物件
  • 單一神經網路:僅使用一套神經網路參數就能學習所有技能
  • 商用就緒: 可在嵌入式低功耗 GPU 上運行

Helix 其中一個重大突破:實現了真正的多機器人協作。

在 Figure 分享的影片中,人類當面說出整理雜物的要求後,兩個機器人在從未見過這些物品的情況下,透過推理能力,能夠合作將這些物品擺放歸位,把雞蛋、番茄醬等需要冷藏保鮮的放進冰箱,把水果放進果盒,把零食收進抽屜裡。

兩台 Figure 機器人共享同一組模型權重,無需為每台機器人單獨訓練或進行多階段訓練,僅透過簡單的語言指令就能默契配合。例如,當系統收到「把餅乾袋遞給右邊的機器人」,接著「將餅乾袋放入抽屜」這樣的連續指令時,兩台機器人能完美配合完成任務。

在實際應用場景中,Figure 02 不僅能精確控制每個手指的動作、手臂的運動軌跡、頭部的轉向和身體姿態,更重要的是實現了即時整體協調效果。

一些網友看到影片後覺得,「兩個機器人交接物品後互相對視的微妙氛圍,讓人不寒而慄。」

據悉,Helix 僅使用了約 500 小時的高品質監督數據(僅為傳統方案的 5%),卻實現了更強的泛化能力。而且,Helix 也透過梯度反向傳播和時間偏移機制,讓訓練成果能夠順利地應用到實際場景中。

「這僅僅是 Helix 潛力的冰山一角,」Figure 公司表示,「如果將 Helix 規模擴大 1000 倍,當它能夠驅動數百萬個機器人時,將為人類社會帶來巨大的改變。」

文章標籤


Empty