先進封裝擴產 四設備廠吃補
先探投資週刊 2023-06-08 14:42
隨著AI持續發展,伺服器用GPU需求激增,Nvidia 增加對台積電投片量帶動 CoWoS 產能供不應求,台積電提前擴產無疑替設備供應商營運注入強心針。
【文/莊家源】
近期受到 ChatGPT 熱潮所帶動的生成式AI應用興起,GPU需求快速飆升,被視為全球最大AI軍火商的輝達(Nvidia)更是在最近一次法說會中表示,目前正有「令人難以置信的訂單」,並直言現在是資料中心十年轉型期的起點。
Nvidia 擴大下單
雖然 Nvidia 在去年面臨PC景氣下滑,與加密貨幣挖礦潮消退,導致消費型產品 RTX 40 系列訂單大幅修正,但近期受到資料中心的AI伺服器需求快速增加,許多國際大客戶如微軟(Microsoft)、谷歌(Google)、甲骨文(Oracle)等除了持續採購 Nvidia DGX A100 伺服器之外,下半年也將會陸續導入 Nvidia DGX H100 新機種,由於新機種在平均售價比舊款高出二∼二.五倍,將會推動整體AI伺服器市場營收規模放大。
根據 TrendForce 預估,今年度全球AI伺服器出貨將達近一二○萬台,年增三八.四%,直到二○二六年將成長至二三六.九萬台,年複合成長率達二二%,除了搭載FPGA、ASIC的AI伺服器,Nvidia 的GPU仍為目前AI伺服器晶片主流,市占率約六○∼七○%,其次為雲端服務商自主研發的ASIC,市占率約二○%。
據了解,相較於傳統通用型的伺服器,是以CPU為主算力,而應用於 ChatGPT 等大型語言模型的AI伺服器則以 CPU+GPU 為主要架構,以 Nvidia DGX H100 伺服器為例,本身搭載二個 CPU 和八個 H100 GPU,與前一代的 A100 相比,H100 在每秒一千兆次(petaflop)浮點運算的千瓦數能源效率提高了兩倍,整體效能提升四.五倍。
其實,Nvidia 旗下伺服器用GPU一直以來都是使用台積電的 CoWoS 封裝,從過去的 P100、V100 到最新推出的 GH200 等,根據野村證券估計,Nvidia 今年對 CoWoS 的需求已從年初預估的三萬片晶圓大幅成長至四.五萬片,成長幅度達五○%。
台積電 CoWoS 供不應求
值得注意的是,中國方面先前受限於美國政府的半導體禁令,導致 Nvidia A100、H100 禁止銷往中國市場,Nvidia 為符合美國政府規定,快速推出可規避禁令的 A800、H800 的降規版晶片,目前也已下單台積電七、四奈米,預計第三季全面放量。
過去,在台積電的營收組成當中,智慧型手機營收一直都大於高速運算(HPC),最明顯的貢獻就是蘋果 iPhone 的A系列處理器都是採用整合扇出型封裝(InFO),直到二○二二年HPC營收比重正式超越手機,AI產業的快速成長扮演重要推手,未來此趨勢將更明確。
由於AI、HPC所使用的晶片,多是採用 CoWoS 封裝技術,在今年台積電的股東會中,董事長劉德音表示,台積電的 CoWoS 先進封裝產能今年已較去年倍增,明年將再倍增,且市場需求遠大於台積電現有產能。為因應明年的擴產需求,甚至把部分 InFO 產能從龍潭轉移至南科,也部分釋單給其他封測廠。(全文未完)
來源:《先探投資週刊》2251 期
更多精彩內容請至 《先探投資週刊》
- 掌握全球財經資訊點我下載APP
延伸閱讀
上一篇
下一篇