廣告
雲端巨頭加速ASIC伺服器布局下單台積電 運算叢集解決方案成競爭焦點
【記者蕭文康/台北報導】 雖2024年NVIDIA GPU加速器解決方案佔據AI伺服器市場逾5成,不過,根據DIGITIMES觀察,隨著AI運算需求快速成長,雲端服務供應商(CSP)正積極發展特用晶片(ASIC)AI伺服器,以強化運算叢集效能並降低對單一供應商的依賴,同時聚焦高密度機櫃設計、液冷散熱技術、加速器互連及網通解決方案。

NVIDIA GPU佔高階AI加速器出貨量比重約達54.3%
據統計,2024年NVIDIA GPU加速器解決方案佔據AI伺服器市場半壁江山,佔2024年整體高階AI加速器出貨量比重約達54.3%。NVIDIA方案雖為現階段業者部署AI運算力的一時之選,然其售價昂貴且有過度依賴單一供應商風險。CSP大廠皆已展開ASIC伺服器研發,領先廠商更進入應用階段,並藉此發揮運算叢集的最大效能。
Google及AWS等4大CSP業者下單台積電量產ASIC
Google ASIC伺服器因發展較早,相關解決方案最為成熟。除其TPU加速器運算力表現不俗外,Google同時擁有TPU POD大型運算叢集解決方案,因此為四大CSP當中,對於NVIDIA依賴最低的業者。
AWS於2024年首度推出具特定加速器互連技術的高密度機型解決方案,預估未來對於自家ASIC伺服器採購比重將上升。Meta和微軟(Microsoft)現階段皆較依賴NVIDIA方案,然近年同樣推出自家ASIC伺服器,雖整體表現不如領先業者,但也宣誓其發展ASIC方案的決心。
DIGITIMES觀察各業者ASIC解決方案的重點,除了以台積電先進製程量產ASIC外,各業者皆有推出機櫃等級解決方案,以打造ASIC加速器運算叢集。其中,高密度機櫃設計、液冷散熱技術、加速器互連及網通解決方案皆為業者ASIC解決方案聚焦的重點。
廣告
廣告
廣告