menu-icon
anue logo
馬來西亞房產鉅亨號鉅亨買幣
search icon


雜誌

黃仁勳公布 輝達AI基建大升級

先探投資週刊


Nvidia 這次公布的財報雖未帶來驚艷,卻不擔心長期發展。總能給全村希望的 Nvidia,發布未來三年產品藍圖,從 AI 晶片供應商轉型為大型 AI 基礎平台架構供應商,若能達成目標,AMD、博通可能就更難與其相抗衡。


【文/魏聖峰】

全球資本市值最高企業的 Nvidia 最新公布財報顯示,即使財報內容與對本季的財測均優於市場預期,卻因為資料中心部門營收連續兩季呈現季減,財報內容並非無懈可擊;加上市場最近擔心AI泡沫化,以及 Nvidia 目前的高本益比壓力,造成公布財報後股價下跌。短線股價可能進入震盪整理,長線上AI霸主的地位尚無人可以挑戰。日前 Nvidia 舉行一場亞太媒體分享會,揭櫫未來三年藍圖計畫,一旦成形會讓 Nvidia 轉型為AI基礎設施架構的設計者。

從第二季四大CSP服務商發布的財報中,光是四大CSP今年的資本支出就會達到三三八○億美元,這些資本支出絕大部分都與AI相關,也有很大的部分都流向 Nvidia。當前高階AI晶片市場僅 Nvidia 和超微,而 Nvidia 的市占率超過九成。但從 Blackwell 架構開始,Nvidia 向客戶提供的高階AI晶片已經不再是單從的系統單晶片,而是一個機櫃。機櫃內容包含HBM、高階CCL、液冷系統以及電源備援系統(BBU)等零組件。對客戶來說,機櫃內容可以客製化,機櫃出貨給客戶後,安裝容易。

Blackwell 出貨提高毛利率

Blackwell 原本去年底陸續出貨的產品,卻因為散熱問題延到今年第二季才能大量出貨。根據 Tom"s Hardware 報導指出,今年 GB200 NVL72 機櫃的出貨預估為二.五萬~三.五萬台,低於先前預估的五萬~八萬台。大多數的供應商認為,技術問題已經解決,廠商正在加速生產,預期下半年會有更快的出貨速度。從 Nvidia 的營運內容來看,營收、EPS維持穩定的向上成長模式。在毛利率與營益率趨勢來看,二六財會年度第一季因為 H20 遭美國政府限制無法出貨,當時 Nvidia 被迫打消四五億美元庫存,以至於該季的毛利率、營益率突然明顯下滑。執行長黃仁勳當時表示,假如 H20 能順利出貨,可以多增加八○億美元營收。最近川普政府對 H20 出貨給中國開綠燈,但在第二季期間,Nvidia 仍沒有向任何中國客戶銷售 H20,僅向一個非中國客戶出貨 H20。即便如此,Nvidia 上季毛利率與營益率明顯回升,並分別重回七二.五三%與六一.○三%。據此推測,Blackwell 第二季逐漸正常出貨,對 Nvidia 提升毛利率和營益率有正面貢獻。

即便 Nvidia 上述財務數據都正向表列,但本益比超過五○倍、資本市值四.二三兆美元的公司,華爾街市場對 Nvidia 財報數據的檢驗也毫不客氣。要有上述身價,財報得要毫無瑕疵財可能讓市場接受。資料中心是 Nvidia 營運最大成長來源,這部分得要滿足市場的挑剔。雖然資料中心的營收都維持正成長,上季已來到四一○.九六億美元並維持創新高表現。但如果從每季增加的趨勢來看,Nvidia 資料中心營收已經連續兩季成長遞減。加上先前MIT發布報告說很多AI新創公司呈現虧損擔心有泡沫化疑慮,Nvidia 這次公布的財報與財測內容被市場認為平淡、沒有驚喜,造成財報公布後股價下跌。另外,Nvidia 上季庫存增加到一四九.六二億美元,季增三二%、年增一二四%,也讓市場擔心這是客戶需求不佳,還是因為 B100、B200 以及未來 GB300 機櫃推出後,造成舊款 H100/200 需求停滯所致。最近市場傳言阿里巴巴將自研 AI 晶片,不再依賴 Nvidia,造成股價下跌。但我們認為,這都僅是 Nvidia 股價創新高後的回檔,對 Nvidia 實質的影響不大。

不過,這都已經過去,Nvidia 總能給市場無窮的希望。八月下旬黃仁勳無預警來台灣與台積電高層會晤,討論接下來的 Rubin 架構平台。他向媒體透露,Nvidia 有六款全新晶片要與台積電合作,包括新款 CPU、GPU、NVLink 交換器晶片、網通晶片、矽光晶片等都要與台積電密切合作。黃仁勳所透露的六款全新晶片內容,似乎就是 Nvidia 未來三年產品架構。

新架構藍圖顯現企圖心

Nvidia 在八月二十二日舉行一場亞太媒體分享會中揭櫫該公司未來三年的產品藍圖計畫,將陸續推出的 GPU 架構將從目前的 Blackwell 演進到 Rubin、Feynman。將從現有單一AI機櫃伺服器走向多資料中心串連在一起的超級運算中心架構。目前建構AI資料中心基礎設施連結主要有,垂直擴展(Scale-Up)和水平擴展(Scale-Out),未來將會變成由數個資料中心互聯的 Scale-Across,形成一個跨區的超級運算中心體系。以因應AI模型規模變大後,動輒數百兆個 Token 在幾秒內快速傳輸,單一資料中心難以負荷如此量大的傳輸。(全文未完)

來源:《先探投資週刊》2368 期
更多精彩內容請至 《先探投資週刊



Empty