開源大語言模型!鴻海參戰 推繁體中文FoxBrain使用輝達H100
【記者李宜儒/台北報導】鴻海旗下鴻海研究院今(10日)宣布,推出首款繁體中文AI大型語言模型(LLM),內部開發代碼FoxBrain,使用120張輝達(NVIDIA)H100 GPU,並透過 NVIDIA Quantum-2 InfiniBand網路進行擴展,僅花約4周的時間完成。

使用120張輝達H100 僅花4周就完成
鴻海表示,FoxBrain的成果將於NVIDIA GTC 25的專題演講中,以「From Open Source to Frontier AI: Build, Customize, and Extend Foundation Models」為主題,首次對外發表。
鴻海表示,在模型訓練過程中,NVIDIA提供Taipei-1超級電腦的支持以及技術諮詢,使鴻海研究院透過使用NeMo順利完成模型訓練。FoxBrain不僅是鴻海AI研發的重大突破,也為台灣AI產業發展樹立了新的標竿,將在更多場景中發揮影響力,推動企業數智化轉型與全球產業升級。
鴻海透露,FoxBrain模型原為內部應用而設計,涵蓋數據分析、決策輔助、文書協作、數學、推理解題與代碼生成等功能,後續將對外開源分享。FoxBrain作為鴻海研究院AI推理LLM模型訓練成果,不僅展現了強大的理解與推理能力,還能針對台灣使用者的語言風格進行優化,並在數學與邏輯推理測試中表現出色。

將於本月輝達GTC大會發表 針對台灣使用者語言風格進行優化
鴻海表示,FoxBrain採用 Meta Llama 3.1 為基礎架構,擁有 70B 參數,在 TMMLU+ 測試資料集,大多數的領域優於國內相同規模的 Llama-3-Taiwan-70B,尤其在數學與邏輯推理方面展現卓越能力。
另外在測試結果方面,FoxBrain於數學領域較基礎模型Meta Llama 3.1全面提升,相較於目前最好的繁體中文大模型Taiwan Llama在數學測試中取得顯著進步,並在數學推理能力上超越Meta目前已推出的同等級模型,雖DeepSeek的蒸餾模型仍有些微差距,但表現已相當接近世界領先水準。
鴻海表示,未來將透過導入AI大型語言模型,優化智慧製造、智慧電動車、智慧城市等三大平台的數據分析效率,讓FoxBrain成為驅動智慧應用升級的重要引擎,進一步提升公司營運效益。
