menu-icon
anue logo
鉅樂部鉅亨號鉅亨買幣
search icon
台股

AI伺服器需求看漲 今年出貨量近120萬台 年增近4成

鉅亨網新聞中心 2023-05-29 18:08

cover image of news article
AI伺服器需求看漲 今年出貨量近120萬台 年增近4成 。(圖:REUTERS/TPG)

研調機構 TrendForce 出具最新報告指出,AI 伺服器及 AI 晶片需求同步看漲,預估 2023 年 AI 伺服器 (包含搭載 GPU、FPGA、ASIC 等) 出貨量近 120 萬台,年增 38.4%,占整體伺服器出貨量近 9%,至 2026 年將占 15%,並上修 2022-2026 年 AI 伺服器出貨量年複合成長率至 22%。

TrendForce 表示,NVIDIA GPU 為 AI 伺服器市場搭載主流,市占率約 60-70%,其次為雲端業者自主研發的 AISC 晶片,市占率逾 20%。觀察 NVIDIA 市占率高的主要原因有三,其一,目前不論美系或中系雲端服務業者 (CSP),除了採購原有的 NVIDIA 的 A100 與 A800 外,下半年需求也將陸續導入 H100 與 H800,尤其新機種 H100 與 H800 在平均銷售單價約為 A100 與 A800 的 2-2.5 倍,加上 NVIDIA 同時積極銷售自家相關整機解決方案。

其二,高階 GPU A100 及 H100 的高獲利模式也是關鍵,由於旗下產品在 AI 伺服器市場已擁有主導權的優勢,據 TrendForce 研究,H100 本身的價差也依據買方採購規模,會產生近 5000 美元的差異。

其三,下半年 ChatBOT 及 AI 運算風潮將持續滲透至各種專業領域 (如雲端 / 電商服務、智慧製造、金融保險、智慧醫療及智慧駕駛輔助等) 的開發市場,同步帶動每台搭配 4-8 張 GPU 的雲端 AI,以及每台搭載 2-4 張 GPU 的邊緣 AI 伺服器應用需求漸增,預估今年搭載 A100 及 H100 的 AI 伺服器出貨量年增率逾 5 成。

此外,從高階 GPU 搭載的 HBM 來看,NVIDIA 高階 GPU H100、A100 主採 HBM2e、HBM3。以今年 H100 GPU 來說,搭載 HBM3 技術規格,其中傳輸速度也較 HBM2e 快,可提升整體 AI 伺服器系統運算效能。

隨著高階 GPU 如 NVIDIA 的 A100、H100;AMD 的 MI200、MI300,以及 Google 自研的 TPU 等需求皆逐步提升下,TrendForce 預估 2023 年 HBM 需求量將年增 58%,2024 年有望再成長約 30%。






Empty