OpenAI前安全團隊負責人「帶槍投靠」 加盟競爭對手Anthropic
【張翠蘭/綜合外電】美國人工智慧(AI)先驅OpenAI的安全技術風險管控團隊前關鍵領導人萊克,周二(5/28)宣布加入AI新創「Anthropic」,成為競爭對手的要員,延續其在前東家的工作領域,把關研發中的AI不會成為毀滅人類的強大系統。
彭博報導,機器學習專家萊克(Jan Leike)離開OpenAI不到半個月,就宣布新動向,5月28日在社群網站X平台宣布「加入Anthropic,持續進行超智慧對齊(superalignment)任務」。
專注於AI安全把關
萊克進一步說明新團隊將專注於AI安全把關,「致力於可擴展監督(scalable oversight)、弱(AI)到強(AI)的泛化(weak-to-strong generalization)和自動化對齊(automated alignment)的研究」。
彭博指此工作重點與萊克在OpenAI任職時類似,即管控「超級人工智慧」(Superhuman AI)模型的長期安全風險。這個又稱為強AI的「通用人工智慧」(Artificial General Intelligence,AGI)系統尚未實現,但OpenAI和Anthropic等公司正在研究如果打造出來了,要如何控制它們。
新團隊獲科技巨頭投資
目前Anthropic已獲得Google、客戶關係管理平台賽富時(Salesforce)、 視訊會議軟體Zoom,以及電商龍頭亞馬遜(Amazon)等科技巨頭投資。
Anthropic標榜是更重視AI安全風險控管的公司。據悉,Anthropic的7名創辦人皆是OpenAI前員工,因為在AI模型安全性上有不同目標而走人。
與OpenAI就安全控管爆不合
萊克原屬Google旗下AI深度學習「DeepMind」團隊,主要研究方向有強化學習、大語言模式對齊工程及AGI。在2021年跳槽OpenAI後,萊克2023年與公司聯合創辦人暨首席科學家蘇茨克維(Ilya Sutskever)被賦予重任,共同領導一個「超智慧對齊」團隊,旨在確保開發出來媲美人類智慧的AGI,符合人類的利益和設計目標,而不是變成「失去控制的流氓」,進而終結人類文明。
但在該團隊爆出與公司高階就AI開發速度和對安全重視度的看法不一之後,蘇茨克維本月14日辭職,翌日萊克也走人,而兩人率領的超智慧對齊團隊隨之被解散。