鉅亨網新聞中心
輝達 (NVDA-US) 在 CES 消費點子展推出新一代 Rubin AI 平台,標誌著其在人工智慧 (AI) 晶片領域保持年度更新節奏。該平台透過六款新晶片的整合設計,在推理成本和訓練效率上大幅躍升,將於 2026 下半年交付首批客戶。
據「華爾街見聞」,輝達 CEO 黃仁勳周一 (5 日) 在拉斯維加斯表示,六款 Rubin 晶片已從合作製造方回廠,並已通過部分關鍵測試,正按計畫推進。他指出,AI 競賽已經開始,所有人都在努力達到下一個水平。輝達強調,基於 Rubin 的系統運作成本將低於 Blackwell 版本,因為它們使用更少元件即可達到相同結果。
微軟 (MSFT-US) 和其他大型雲端運算供應商將成為下半年首批部署新硬體的客戶。微軟下一代 Fairwater AI 超級工廠將配備輝達 Vera Rubin NVL72 機架級系統,規模可擴展至數十萬顆輝達 Vera Rubin 超級晶片。CoreWeave 也將是第一批提供 Rubin 系統的供應商之一。
該平台的推出正值華爾街部分人士擔憂輝達面臨競爭加劇,並懷疑 AI 領域的支出能否維持當前速度。但輝達維持長期看漲預測,認為總市場規模可達數兆美元。
根據輝達,Rubin 平台的訓練表現是前代 Blackwell 的 3.5 倍,而運行 AI 軟體的效能則提升 5 倍。與 Blackwell 平台相比,Rubin 可將推理 token 生成成本降低至多 10 倍,訓練混合專家模型(MoE)所需 GPU 數量減少 4 倍。
新平台配備的 Vera CPU 擁有 88 個核心,效能是其替代產品的兩倍。這款 CPU 專為代理推理設計,是大規模 AI 工廠中能效最高的處理器,採用 88 個客製化 Olympus 核心、完整 Armv9.2 相容性和超快 NVLink-C2C 連接。
Rubin GPU 配備第三代 Transformer 引擎,具備硬體加速自適應壓縮功能,可提供 50 petaflops 的 NVFP4 運算能力用於 AI 推理。每個 GPU 提供 3.6TB/s 的頻寬,而 Vera Rubin NVL72 機架則提供 260TB/s 頻寬。
晶片測試進展順利
黃仁勳透露,全部六款 Rubin 晶片已從製造合作夥伴處返回,並已通過顯示其可按計劃部署的關鍵測試。這一表態顯示輝達正維持其作為 AI 加速器領先製造商的優勢地位。
該平台包含五大創新技術:第六代 NVLink 互連技術、Transformer 引擎、機密運算、RAS 引擎以及 Vera CPU。其中第三代機密運算技術使 Vera Rubin NVL72 成為首個提供跨 CPU、GPU 和 NVLink 域資料安全保護的機架級平台。
第二代 RAS 引擎橫跨 GPU、CPU 和 NVLink,具備即時健康檢查、容錯和主動維護功能,以最大化系統生產力。機架採用模組化、無線纜托盤設計,組裝維護速度比 Blackwell 快 18 倍。
輝達表示,包括亞馬遜的 AWS、Google 雲端、微軟和甲骨文雲在 2026 年將率先部署基於 Vera Rubin 的實例,雲端合作夥伴 CoreWeave、Lambda、Nebius 和 Nscale 也將跟進。
OpenAI CEO 奧特曼 (Sam Altman) 表示,「智慧隨運算擴展。當我們增加更多運算時,模型變得更強大,能解決更難的問題,為人們帶來更大影響。輝達 Rubin 平台幫助我們持續擴展這一進展。」
Anthropic CEO Dario Amodei 稱,輝達「Rubin 平台的效率提升代表了能夠實現更長記憶、更好推理和更可靠輸出的基礎設施進步」。
Meta CEO 祖克柏表示,輝達「Rubin 平台有望帶來效能和效率的階躍式變化,這是將最先進車型部署給數十億人所需要的」。
輝達也稱,思科、戴爾、惠普企業、聯想和超微預計將推出基於 Rubin 產品的各類伺服器。包括 Anthropic、Cohere、Meta、Mistral AI、OpenAI 和 xAI 等 AI 實驗室正期待利用 Rubin 平台訓練更大型、更強大的模式。
上一篇
下一篇
