AI運算新時代來臨,輝達(NVIDIA)3月19日GTC大會上正式發表了AI超級晶片GB200和新一代GPU架構Blackwell處理器的B200。GB200能大幅降低營運成本25倍以上,運轉數兆參數規模的語言模型並加速專家混合模型的推論及訓練,意味著大型語言模型即將進入「兆級參數」時代。
根據TrendForce統計,2023年全球AI伺服器(包含搭載GPU、FPGA、ASIC等)的出貨量將接近120萬台,年增38.4%,2023年占整體伺服器出貨量的比重將接近9%,預估2022年~2026年全球AI伺服器複合成長率(CAGR)將高達22%,AI伺服器占整體伺服器出貨量的比重預估在2026年將提升至15%。
台系ODM廠積極搶攻AI伺服器商機,DIGITIMES分析師黃耀漢表示,2025年生成式AI市場規模預計達460億美元,到了2030年估計將高達1.5兆美元。目前生成式AI市場發展處於初期階段,全球市場規模將由AI運算設備硬體為主,2025年全球AI伺服器出貨預測達149萬台。
值得注意的是,被外界號稱「地表最強晶片」的GB200產品共有三種類型:DGX NVL72、DGX NVL36和HGX B200(適用於x86),預計2025年GB200機架出貨量將達到4萬台,其中NVL72為1萬台,NVL36為3萬台。
由於NVL72和NVL36的單價可能分別達到300萬美元和180萬美元,對輝達的貢獻將達到約500億美元,同時也將惠及相關供應商,如ODM、散熱解決方案提供商以及PCB、CCL、電源和網路供應商都可望受惠,包括組裝廠廣達、緯穎、緯創及技嘉,熱散廠雙鴻、奇鋐,銅箔基板廠台光電,滑軌廠川湖,機殼廠勤誠、營邦及晟銘電等都可望受惠。