廣告
OpenAI GPT-6訓練成本恐達天文數字 外媒估使用10萬顆H100 GPU
【財經中心/台北報導】科技媒體smartprix報導,OpenAI在介紹GPT-4.5模型的影片中,意外洩露GPT-6訓練可能需要的GPU數量,暗示其規模將遠超過以往的規模。

IT 之家指出,在GPT-4.5模型介紹影片中,OpenAI展示GPT 4.5功能的聊天記錄中,出現「Num GPUs for GPT 6 Training」(訓練GPT-6所需的GPU數量)的字樣。
雖然影片未對此解釋,但「Num」可能暗示一個前所未有的數字,smartprix推測高達10萬顆GPU,之前有消息稱,OpenAI在訓練GPT-3時使用約1萬顆GPU,隨著模型的不斷迭代,對計算資源的需求也不斷增加。
內部代號為「Orion」的GPT 4.5在自然度和減少「幻覺」方面取得重大進展,其參數量可能超過3到4兆。據推測,GPT 4.5的訓練使用3萬到5萬顆NVIDIA H100 GPU,訓練成本約7.5億到15億美元(約246億至492億台幣)。
截圖中「Num」的含義尚不明確,它可能代表「Numerous」(大量),暗示GPT-6的訓練規模遠超以往,不過,這也有可能只是OpenAI的煙霧彈,就像之前用「Strawberry」(草莓)作為o1系列的代號一樣。
廣告
廣告
廣告