menu-icon
anue logo
鉅亨傳承學院鉅亨號鉅亨買幣
search icon

美股

矽谷這夜屬於中國機器人!圖靈獎得主到輝達大咖齊聚

鉅亨網新聞中心

具身智慧產業有史以來第一場全球性高峰會 4 月 28 日在矽谷落幕!這場大會星光熠熠——2015 年圖靈獎得主、公鑰密碼學奠基人 Martin Hellman 做開場主題演講,主題是「安全、智慧與物理世界的交會」。輝達 GEAR Lab 資深研究科學家、亞馬遜前沿 AI 研究院科學家、史丹佛大學副教授同台對談,上千名來自全球的 AI 學者、開發者和投資人到場。

cover image of news article
GEIS發起方為成立剛滿兩年的MagicLab(圖:MagicLab)

據《新智元》,在這場名為 GEIS(全球具身智慧創新大會)高峰會上,一口氣發表三款核心產品,涵蓋世界模型、靈巧手和人形機器人。如此豪華的陣容,硬核的發布,倒像是矽谷本土巨頭的畫風。誰能想到,GEIS 的發起方竟是一家成立剛滿兩年的中國公司——魔法原子(MagicLab)。


在矽谷辦會、請圖靈獎得主站台,具身智慧賽道從未有過這種先例。過去兩年,人形機器人的關節扭力越來越大,自由度越來越多,翻跟頭的姿勢越來越花。但一個尷尬的事實始終沒變,絕大多數機器人離開預設好的 demo 場景,就「不會工作」了。

問題出在哪?目前主流的 VLA(視覺-語言-動作)大模型已經能讓機器人聽懂指令、看見場景,但一旦進入真實環境,光照變了、桌面材質換了、物體擺放位置偏了幾厘米,泛化能力就開始崩。

說到底,機器人缺少的不是更強的手臂腿,而是一個真正能理解物理世界的「大腦」。這才是核心瓶頸。這正是魔法原子此次發表的世界模式 Magic-Mix 要解的題目。

世界模式 Magic-Mix 自己教自己

Magic-Mix 由兩個核心引擎協同運作。第一個叫 Magic-Mix WAM,負責實體環境理解、空間推演和動作決策。通俗地說,它讓機器人在動手之前,先在「腦子裡」模擬一遍接下來會發生什麼。

抓一個杯子,手指接觸杯壁的瞬間會產生多大的力量?杯子的重心在哪?如果桌面是濕的,摩擦係數怎麼變?這些物理常識層面的推演,是 VLA 模型不擅長的,而世界模型剛好補上了這塊。

第二個引擎叫 Magic-Mix Creator,是離線資料產生器。它的工作是大批量合成訓練資料樣本,持續餵給 WAM 做訓練和迭代。

以上兩個引擎組合在一起,形成了一個閉環,海量資料產生→模型訓練→訓練結果回饋→資料再生成。

換言之,Magic-Mix 是一個能「自我進化」的動態系統。機器人在真實場景中每執行一次任務,產生的資料都會回流到這個閉環裡,驅動模型持續演化。

在訓練機制上,Magic-Mix 有一個很硬派的設計,視訊動作雙專家協同訓練。一個專家負責「看」,從視訊資料中學習物理世界的運作規律;另一個專家負責「動」,把觀察到的規律轉化為具體的動作策略。

兩個專家共享底層訊息,但梯度更新彼此隔離,避免互相干擾。這套機制也引入了目標影像約束和失敗影像特徵輸入。系統不僅學習「成功長什麼樣子」,也學習「失敗長什麼樣子」,從而在執行長線程任務時減少誤差累積。

而支撐這套系統運作的底層基礎,就是數據。這恰恰是目前具身智慧最大的瓶頸。真機資料採集成本高、週期長、場景覆蓋有限,這是全產業面臨的共通性難題。

魔法原子給的解法是「兩條腿走路」——一方面,大力投入真機資料蒐集。日均採集約 16,000 條,VLM 層模型參數量達 3B,已累積約 36 萬條真機資料;

另一方面,透過 Magic-Mix Creator 大批量合成訓練數據,實現萬倍級別的數據體積擴展。其建構的 Robot Data Pool,高品質資料集規模已超 100 萬小時。這套「真機擷取+合成擴充」的資料飛輪,大幅降低了對純真機資料的依賴,也為模型訓練提供了持續穩定的彈藥補給。

從產業視角來看,誰能率先跑通資料閉環,誰就能在具身智慧的下半場佔據先機。

一個可以想像的場景是,如果這套世界模型率先在家庭環境中跑通,機器人就能在廚房裡根據檯面上食材的擺放位置自主規劃切菜、裝盤的動作序列,而不需要人類預先編排每一步。

從水龍頭出水的角度到碗碟疊放的高度,這些細碎的物理變數都在世界模型的推演範圍內。

家庭這種高度非結構化的場景都能應對,工業產線上相對標準化的任務就更不在話下。

這就是世界模型真正的戰略意義:它是為所有場景提供底層能力支撐。誰先把世界模型跑通,誰就拿到了具身智慧規模化落地的「萬能鑰匙」。

靈巧手 H01 比人手還敏感

有了「大腦」的決策能力,還需要足夠精密的執行終端。會上,同期發布的新一代靈巧手 MagicHand H01,有幾個參數值得單獨拎出來看。20 個自由度,其中 15 個為主動自由度,整機重量僅 1 公斤,額定負載卻達 10 公斤。

機器人的手越重,整機負載的擠壓就越大,留給實際作業的有效載荷就越少。

H01 把自重壓到了 1 公斤,幾乎不吃整機的負載預算。

44 個高解析度三維觸覺感測器覆蓋手掌和指尖,力感知解析度達到 0.05 牛頓。

要知道,人類指尖的力感知閾值大約在 0.05 到 0.1 牛頓之間。H01 在力感知精度上,已經摸到了人手的下限。但 H01 最有辨識度的能力是「未觸先覺」。產品具備 0 到 40mm 的動態感知範圍,接近覺分辨率達到 0.5 毫米,能夠在真正接觸物體之前就完成動作預判。

配合 5mm 級的硬體閉迴路反應系統,機器人的手在離物體還有幾公分的時候就已經開始調整姿態和力道了。

這在護理、復健訓練、家庭服務這類場景中尤其關鍵。機器人跟人近距離接觸時,靠碰撞檢測做事後補救太晚了,H01 能在接觸發生前就完成力度和軌跡的調整。

1 秒內完成完整開合動作,反應速度足以應付工業產線節拍。同時支援適配市面上多款人形機器人本體,不綁定自家平台。這個開放策略在靈巧手賽道並不常見。

更具實用價值的是,H01 被設計為通用模組,可適應市面上多款人形機器人本體。這是一個明確的生態化訊號:魔法原子不只想給自家機器人配上靈巧手,而是想讓 H01 成為業界的「標準件」。

MagicBot X1 24 小時不下班

三款產品中的最後一塊拼圖是旗艦人形機器人 MagicBot X1。

上一代 Gen1,身高 174cm、42 個自由度、雙臂搬運負重 20 公斤,是魔法原子在春晚和工廠產線上驗證的主力機型。而這次,X1 在 Gen1 基礎上做了幾個關鍵升級。

第一是運動能力大幅提升。X1 身高拉到 180cm,體重 70kg,全身 31 個主動自由度(Gen1 是 42 個總自由度,但主動自由度數未公開披露),極限關節扭力從 Gen1 的體系升級到 450N·m。

整機運動速度綜合提升 30% 以上,運動範圍提升超過 50%。更高的扭力和更大的運動範圍組合起來,意味著 X1 能在更複雜的空間姿態下完成作業。

舉個例子,工業場景中經常需要機器人彎腰探進設備內部做檢測或取件,這類動作對軀幹和肩關節的活動範圍要求很高,Gen1 在某些極限角度下會受限。

X1 提升 50% 的運動範圍,直接拓寬了它在彈性生產場景中的適用面。

第二是續航問題的根本解法。Gen1 綜合續航力最高 5 小時,對於需要兩班倒甚至三班倒的工業場景來說不夠用。X1 沒有選擇堆疊更大的電池,而是做了雙電池熱插拔系統,支援不斷電更換電池,直接實現 7×24 小時連續作業。

工廠不需要等機器人「下班充電」,運維人員換個電池就行。這個設計思路比單純拼電池容量更務實。

第三是產品化程度。X1 一共有兩個 SKU:開箱即用「標準版」,以及面向大學和開發者的「科研版」,支援底層二次開發和外形客製化。

Gen1 在產品化層面更偏向客製化專案交付,X1 從一開始就是衝著標準化量產去的。到這裡,技術拼圖閉環了。Magic-Mix 世界模型是「大腦」,H01 靈巧手是「雙手」,X1 人形機器人是「身體」。從感知、決策到執行,一口氣補齊。


section icon

鉅亨講座

看更多
  • 講座
  • 公告

    Empty
    Empty