輝達L40S迷人之處在哪?
先探投資週刊 2023-09-07 13:39
為了解決 CoWoS 產能不足使AI晶片缺貨的景況,輝達於上個月宣布推出新款GPU產品 L40S,可望帶動台灣相關供應鏈。
【文/吳旻蓁】
今年以來,隨著全球大語言模型訓練和推理生成式AI(Generative AI)應用百花齊放,帶動高階AI伺服器和高效能運算(HPC)資料中心市場需求水漲船高,也因而使主要大廠輝達(Nvidia)推出的AI晶片 A100 及 H100 成為科技廠瘋搶的主要產品。然由於 A100 和 H100 晶片均需採用台積電 CoWoS 先進封裝,受限於產能不足,因此造成輝達AI晶片全面缺貨。
L40S 成輝達營運新利器
為了解決缺貨窘境,輝達也在八月上旬宣布推出新款GPU產品 L40S,其是前身 L40 的升級版,因此仍擁有 L40 的強項:渲染與3D設計繪圖、串流影片處理、工業數位化等功能;此外,亮點在於,L40S 從原先單純影像處理型AI晶片,切入生成式AI領域;也就是說,L40S 不但是一款專業影像處理GPU,同時也支援新一代數據中心工作負載,可執行生成式AI和大型語言模型LLM推理與訓練。
然而,L40S 並沒有搭載 HBM,也不支援 NVLink,而是採用 PCIe Gen 4 傳輸介面,如果是多卡串聯的情況,彼此無法分享記憶體,且傳輸速率只有三二 GB/s,遠低於 A100、H100 傳輸速率的九○○GB/s。因此,在大規模AI演算法訓練,L40S 的效能可能還是落後 HGX A100、H100 準系統,但應用在AI推論或小規模的AI演算法訓練,都有優於 A100 成績;與 A100 相比,L40S 在AI訓練效能提升七○%,在生成式AI效能提升二○%。
再者,L40S 因採用 PCIe Gen 4 傳輸介面,與通用伺服器的相容性較高,故可在不更改設計的情況下直接加裝;且其成本相對便宜,從零售價格來看,L40S 單卡售價約一○○○○~一一○○○美元,較 A100 單卡售價約一二○○○~一五○○○美元來得更低。更重要的是,因無須採用 CoWoS 封裝,故不會受到產能瓶頸的限制,上述優勢都讓市場樂觀看待此產品或能有效填補低階市場的空缺。
華碩推新AI伺服器搶市
而台廠中,L40S 相關推理卡由鴻海獨家代工OAM板。鴻海一直是輝達的長期合作夥伴,不論是AI晶片模組、基板、主機板、伺服器到機櫃,鴻海可以說是一條龍服務,打造輝達AI伺服器供應鏈的完整解決方案。另外,除了其他伺服器廠商也可以自行採購 L40S 推理卡,並根據客戶需求來設計伺服器外,輝達亦有推出自有品牌OVX伺服器,採用4U設計、搭載八張 L40S 推理卡,而首波通過認證的台灣供應商包括廣達旗下的雲達、技嘉及華碩。
其中,日前華碩宣布搭載最新 Nvidia L40S GPU 的 ESC8000 和 ESC4000 伺服器開始開放下單,不僅大幅加快AI伺服器供應速度,亦提供絕佳性價比。華碩此次以首度入列輝達伺服器新品首發夥伴引起市場關注,事實上,公司耕耘伺服器業務多年,近年業績穩定增長,分為品牌及白牌兩大事業體,其中自有品牌為台灣第三大,僅次於 Dell 及 HPE;白牌則鎖定中型資料中心,如 VH、德國 Hetzner 等網路託管商皆為其客戶。
隨著近年力拱AI應用,華碩AI伺服器在市場上也順利取得初步成果,而為衝刺AI伺服器業務,也積極招兵買馬,先前也喊出力拚伺服器業績五年成長十倍的目標,年複合成長率上看四○%。台系法人指出,華碩去年伺服器業務規模僅約百億,占比約二%,但因其與輝達顯卡長期合作,並在板卡市場上居龍頭地位,GPU取得容易,目前已開始出貨 H100、L40S 等AI伺服器,將帶動整體伺服器業務在今、明兩年均可望有四成的年增幅度,營收貢獻明年將可望衝二○○億大關。(全文未完)
來源:《先探投資週刊》2264 期
更多精彩內容請至 《先探投資週刊》
- 掌握全球財經資訊點我下載APP
延伸閱讀
上一篇
下一篇