menu-icon
anue logo
鉅亨傳承學院鉅亨號鉅亨買幣
search icon

區塊鏈

AI算力產業鏈瓶頸傳導的底層邏輯

金色財經

作者:qinbafrank;來源:X,@qinbafrank

最近多家投行大摩、摩根大通、美銀、高盛、瑞銀、花旗、伯恩斯坦、HSBC,發布AI/半導體/電力/儲存相關更新報告,AI 硬體的瓶頸已經從"GPU 供應"單一維度擴散到電力、晶片、儲存、設備、材料五個維度的集體緊張,

AI 需求量級已經突破了傳統電力規劃、半導體設備產能、儲存價格模型、機器人裝機假設的所有預測區間。


大摩的全球主題研究復盤指出,全球每周大語言模型 token 消耗量在 3 個月內從 6.4 萬億個飆升到 22.7 萬億個,增幅達到 2.5 倍,美國 2025-28 年數據中心電力缺口 55 吉瓦;摩根大通的數據中心高性能計算項目債首次覆蓋直接給出"未來 5 年 122 吉瓦待融資"的缺口數字,美國 5 年電力規劃從 101 吉瓦飆升到 230 吉瓦,44% 的新項目併網等待時間超過 4 年;美銀給 Alphabet 的最新目標價報告里,2026 年資本支出被直接上修到 1815 億美元、年增率翻倍,自由現金流年增率下降 62%。這三組數據不是同一套框架的輸出,而是三家獨立機構在不同研究路徑上的獨立畫像。

半導體產業鏈(尤其是AI算力領域)的瓶頸演變,正是從「計算(GPU)→儲存(HBM等)→光互連→電力/液冷」這一清晰的順序遞進的。 這是2025-2026年行業共識,隨著AI訓練/推理集群從單機櫃(幾十張GPU)向超大規模(數千至數十萬張GPU)擴展,每解決一個環節的瓶頸,下一個物理/供應鏈限制就會立即暴露出來,形成「Leontief式」互補約束(缺一個都無法出貨)。

有必要了解為什麼會出現這種演變、當前現狀以及背後的物理/工程原因:

1. 第一階段瓶頸:GPU計算(2022-2024年主導)核心限制

高端GPU(如NVIDIA Hopper H100 → Blackwell B200 → Rubin)本身的晶圓產能 + 先進封裝。 為什麼是瓶頸:AI大模型需要海量並行計算,TSMC 4nm/3nm/2nm邏輯工藝 + CoWoS(2.5D/3D封裝)產能一度成為最大卡點。哪怕前端晶圓夠,後端把邏輯晶片 + HBM堆疊封裝的能力跟不上,整張GPU就出不來。

緩解情況:TSMC大力擴CoWoS(2024-2025年產能翻倍),NVIDIA Blackwell已大規模出貨。但這只是「計算」環節解鎖,後面立刻暴露新問題。

2. 第二階段瓶頸:儲存(HBM高帶寬內存,2024-2025年成為最緊缺)

核心限制:HBM3/HBM3e/HBM4產能。 為什麼接力成為瓶頸:GPU算力上去了,但模型參數爆炸式增長(兆甚至十兆參數),數據搬運(memory bandwidth)成了「內存牆」。HBM 每秒可傳輸數 TB 數據,比常規 DDR 內存快 20 倍以上。由於HBM緊鄰邏輯晶片,數據無需傳輸太遠,因此節省了能耗。

一張B200 GPU需要192GB+ HBM3e,單機櫃(NVL72)HBM總量已達30-40TB,且帶寬需求遠超傳統DRAM。

供應鏈現狀:僅SK海力士、三星、美光三家能規模化生產HBM,工藝複雜(硅通孔TSV + 堆疊),2025年已全部賣光,2026年仍供不應求,價格年增率暴漲246%。即使GPU晶片 ready,沒有HBM就無法組裝交付,導致整個AI集群部署延期。

結果:儲存從「商品」變成戰略級卡脖子環節,資本開支中儲存占比可達30%。

3. 第三階段瓶頸:光互連(2025-2026年正在切換)

核心限制:銅纜(NVLink/NVSwitch)在帶寬、距離、功耗、重量上的物理極限。 為什麼必然轉向光:單機櫃內(72張GPU)還能靠銅纜,但要擴展到多機櫃、乃至數千張GPU互聯時,銅纜衰減嚴重(1.8TB/s帶寬下有效距離2.6kW TDP。Vertiv(VRT)等液冷/熱管理廠商成為基礎設施新核心。 

連鎖反應:PUE(電能利用效率)要求

暢行幣圈交易全攻略,專家駐群實戰交流

▌立即加入鉅亨買幣實戰交流 LINE 社群(點此入群
不管是新手發問,還是老手交流,只要你想參與加密貨幣現貨交易、合約跟單、合約網格、量化交易、理財產品的投資,都歡迎入群討論學習!

前往鉅亨買幣找交易所優惠


section icon

鉅亨講座

看更多
  • 講座
  • 公告

    Empty
    Empty