黃仁勳駁DeepSeek低成本 揭R1模型為何需要「100倍以上運算能力」
【編譯張翠蘭/綜合外電】美國晶片大廠輝達(NVIDIA)執行長黃仁勳周三(3/19)評論中國大陸AI新創深度求索(DeepSeek)聲稱低成本新AI模型R1的影響,指出它需要的運算量其實比許多人想像的要更多,與外界先前對「R1可能減少晶片需求」的理解是完全相反,它「實際上消耗了100倍以上的運算資源」。

黃仁勳3月19日在加州舉行的輝達年度GTC技術大會期間,接受美國財經頻道CNBC採訪時,討論了中國大陸AI實驗室DeepSeek新AI模型的影響。黃仁勳斷言,這款突破性的模型實際上需要的運算量,比許多業內人士想像的要多。
輝達目前股價比今年1月創下的歷史高點下跌逾20%,遭受沉重賣壓,因為今年稍早,DeepSeek推出先進AI模型R1,媲美OpenAI的o1推理模型能力,並聲稱只要用較低成本開發,引發外界擔心各企業只要投入比目前低的基礎設施,就能取得性能良好的AI。

對此,黃仁勳19日表示,DeepSeek的R1模型「很棒」,因為是「第一個開源的推理模型」。他解釋,推理模型可逐步分解問題,能夠得出不同的答案,並能驗證其答案是否正確。
但黃仁勳也說:「這種推理AI比起非推理AI消耗的運算量,多了100倍。」因此針對晶片需求可能減少一說,「事實上恰恰相反,這跟大家得出的結論完全相反」。
彭博指出,輝達正試圖說服越來越多的行業投資AI設備,並承諾這項技術的經濟效益即將到來。 輝達過去2年來搭上AI熱潮而業績大漲,成為全球市值最高的晶片製造商,2025年將面臨投資者更多審視,市場主要擔憂是其客戶是否會維持在AI基礎設施上的高額支出。
在19日輝達GTC大會與分析師及投資者的會面上,黃仁勳被問及是否擔心客戶自己開發的晶片,有可能取代資料中心使用的輝達AI加速器,例如Google等公司一直在與博通(Broadcom)合作,開發自己的專用集成電路(ASIC)。但黃仁勳反駁,許多ASIC雖然設計好了,卻不一定真的用於資料中心。
黃仁勳認為,這些大客戶需要更好的晶片以便從基礎設施中獲得更多收入,而不是為了節約成品而採用更便宜晶片。
他也強調,競爭對手的晶片無法與輝達上一代Hopper設計相媲美,而目前的Blackwell平台的性能比現有平台強大40倍。