H100
美股雷達
摩根士丹利分析師 Joseph Moore 及其團隊 8 月 27 日報告指出,GPU 租賃市場目前供不應求,投資報酬率(ROI)極高。儘管 H100 的租賃價格在過去六個月有所下降,但其絕對價格仍顯示出硬體的投資回報期在一年以內,這對於數據中心的投資者來說,輝達 (NVDA-US) 無疑是最安全的選擇。
台股新聞
〈HBM 需求急增 供應商全力擴產〉隨著人工智慧技術的快速發展,高頻寬記憶體以其高速資料傳輸能力,成為 AI 晶片設計中不可或缺的一部分,從 HBM1 到 HBM3E,每一代產品在堆疊層數、傳輸速度和儲存容量上都有顯著提升,作為 AI 晶片關鍵技術支援的同時,也面臨供不應求的問題,為應對市場以及 NVIDIA H200 晶片中 HBM3E 記憶體的需求,SK 海力士、三星和美光這些記憶體產業的領導企業,正積極擴充 HBM 的產能。
台股新聞
〈輝達與超微確認在台設立研發中心〉COMPUTEX 本週二開展即迎來最高潮,輝達執行長黃仁勳到訪鴻海集團旗下鴻佰科技展位,正式宣布輝達攜手鴻海在高雄軟體園區建置以 GB200 NVL72 伺服器為核心的先進算力中心,估計將斥資 1.92 億美元 (約新台幣 62.29 億元),黃仁勳也表示輝達也有意於五年內在台灣設立研發中心,強調台灣擁有很棒且豐富的生態系,在其他地方複製一樣的運作模式太過困難,是讓輝達選擇落腳的主要考量。
美股雷達
根據《CNBC》報導,特斯拉 (TSLA-US) 執行長馬斯克 (Elon Musk) 告訴輝達 (NVDA-US),優先向其 X 和 xAI 公司運交人工智慧處理器,而不是電動車製造商。報導引述 12 月的一份輝達內部備忘錄顯示,「馬斯克優先在 X 上部署 X H100 GPU,而不是在特斯拉:將原本為特斯拉發貨的 12000 個 H100 GPU 重定向到 X。
美股雷達
受惠於生成式 AI 熱潮,用於 AI 伺服器的輝達 (NVDA-US) H100 晶片一直供不應求,價格表現強勁,加上美國對中國祭出 AI 晶片禁令,使得搭載 H100 銷往中國的伺服器現貨價格水漲船高,一度高達人民幣 300 多萬元,遠高過 28-30 萬美元的官方售價,扣掉物流及關稅成本,部分中間商可以輕鬆獲利逾一成。
台股新聞
〈輝達 GTC 大會 宣告 AI 運算新時代來臨〉輝達在 3 月 19 日的 GTC 大會上正式發表了 AI 超級晶片 GB200 和新一代 GPU 架構 Blackwell 處理器的 B200。GB200 是由一顆 Grace 系列的 CPU 加上兩顆 B100 GPU 結合,支援第二代 Transformer 引擎,能運轉數兆參數規模的語言模型並加速專家混合模型的推論及訓練,提高精度與準確度,意味著大型語言模型即將進入「兆級參數」時代。
台股新聞
〈四大雲端服務供應商重金建置 AI 伺服器〉根據研究機構 Gartner 的預測,2023 年全球 AI 伺服器市場規模將達到 250 億美元,2024 年將再成長到 310 億美元,2025 年將突破 400 億美元。全球四大雲端服務供應商亞馬遜 AWS、微軟 Azure、Google Cloud、Meta 均砸重金建置 AI 伺服器,去年四大廠資本支出約 1,400 億美元,今年資本支出總和年增逾 21%,持續攀高約 1,700 億美元,2025 年總資本支出再增加逾 11%、總金額逼近 2,000 億美元。
美股雷達
根據瑞銀 (UBS) 給客戶的最新報告,輝達 (NVDA-US) 大幅縮短了 AI GPU 的交貨周期(即客戶下訂單後到交貨的時間間隔),從去年年底的 8-11 個月縮短到了現在的 3-4 個月。瑞銀表示,這種轉變顯示近期成長可能達到峰值,但也可能預示著輝達未來成長前景面臨麻煩。
台股新聞
輝達 (NVDA-US) 發布最新影片,首次公開展示最新資料中心規模超級電腦 Eos,由 576 個 NVIDIA DGX H100 系統組成,以每個 DGX H100 系統配備 8 個 H100 Tensor 核心 GPU 推算,超級電腦 Eos 共有 4608 個 H100 GPU,造價不斐。