財經
熱線

集邦看好今明兩年 AI伺服器出貨成長皆逾37%

受惠於AI熱潮,相關伺服器成長快速。(圖/業者提供)

全球市場研究機構集邦科技(TrendForce)17日針對明年的科技產業發展做重點整理,可看出AI產業一片欣欣向榮,包括伺服器、高頻寬記憶體、加速晶片等會迎來喜訊,像是今年AI的伺服器(包含搭載GPU、FPGA、ASIC等)出貨量逾120萬台,年增高達37.7%,而預計明年將再成長逾38%。

集邦科技表示,CSP(雲端服務供應商)業者如Microsoft、Google、AWS等近期都在加大AI投資力道,推升AI伺服器需求上揚,估算2023年AI伺服器出貨量逾120萬台,年增37.7%,占整體伺服器出貨量達9%,2024年將再成長逾38%,AI伺服器占比將逾12%。

除了NVIDIA與AMD的GPU解決方案外,大型CSP業者也擴大自研ASIC晶片將成趨勢,Google自2023年下半加速自研TPU導入AI伺服器,年成長將逾7成,2024年AWS亦將擴大採用自研ASIC,出貨量有望翻倍成長,其他如Microsoft、Meta等亦規劃擴展自研計畫,GPU部分成長潛力恐受到侵蝕。

預計在2024年後,將延伸至更多應用領域業者投入專業AI模型及軟體服務開發,帶動搭載中低階GPU(如L40S等系列)等邊緣AI Server成長,預期2023到2026年邊緣AI伺服器出貨平均年成長率將逾兩成。

AI伺服器也帶動了AI加速晶片需求,其中高頻寬記憶體(HBM)為加速晶片上的關鍵性DRAM產品。以規格而言,除了現有的市場主流HBM2e外,今年HBM3的需求比重亦隨著NVIDIA H100/H800以及AMD MI300系列的量產而提升。展望2024年,三大記憶體廠商將進一步推出新一代高頻寬記憶體HBM3e,一舉將速度提升至8Gbps,提供2024到2025年新款AI加速晶片更高的性能表現。

AI加速晶片市場除了Server GPU龍頭廠商NVIDIA、AMD外,CSP業者也加速開發自研AI晶片的腳步,產品共通點為皆搭載HBM。伴隨訓練模型與應用的複雜性增加,預期將帶動HBM需求大幅成長。HBM相比其他DRAM產品的平均單位售價高出數倍,預期2024年將對記憶體原廠的營收將有顯著挹注,預估2024年HBM營收年增長率將達172%。