「超智慧對齊」團隊解散大爆AI疑慮 OpenAI挨批輕視人類滅絕風險

國際 熱搜話題
2024/05/31 12:43
張翠蘭 文章

【張翠蘭/綜合外電】人工智慧(AI)聊天機器人ChatGPT開發商OpenAI,旗下風險控制團隊「超智慧對齊」(Superalignment)日前宣告解散,使得旨在保護人類文明免受AI侵害的計劃成立不到1年就瓦解。有團隊成員大爆對AI發展的安全疑慮,並稱對執行長阿特曼「失去信任」。各界也高度關注OpenAI日後的安全相關工作如何把關。

OpenAI「超智慧對齊」團隊日前解散,引發各界質疑未來研發AI的安全把關工作。圖為OpenAI於5月14日發表更高效AI技術模式「GPT-4o」時的形象圖。翻攝X平台
OpenAI「超智慧對齊」團隊日前解散,引發各界質疑未來研發AI的安全把關工作。圖為OpenAI於5月14日發表更高效AI技術模式「GPT-4o」時的形象圖。翻攝X平台
分享 加入好友

AI新創界的安全技術領域近期風雲變色。美國財經頻道CNBC於5月28日分析指出,自OpenAI於2022年底推出ChatGPT,掀起生成式AI產品和投資的熱潮以來,AI安全在整個科技領域迅速變得重要起來。但業內人士表示擔心,一些公司在沒有充分考慮潛在社會危害的情況下,過於急促向公眾發布功能強大的AI產品。

此事可從OpenAI近期度過動盪波折的一周看出端倪,該公司5月13日高調推出最新旗艦AI模型「GPT-4o」,處理速度提升至2倍,還能讓ChatGPT進行更逼真、即時的語音對話。但隨後數名重量級高階主管卻宣布離開,相關內幕近日陸續曝光,引發各界關注。

超智慧對齊確保AGI不變成「失控流氓」

出走的大將包括OpenAI超智慧對齊團隊關鍵領導人,此團隊於2023年7月成立,OpenAI承諾會在未來4年內,將公司的20%運算能力用來投入這項計劃,最終目標要開發出一套大幅超越人類智慧的超級智慧模型,藉由大量運算,讓其計算結果與人類的想法、利益一致,最終透過這套AI模型來管理其他AI模型和自身發展。

而要打造超級智慧,要先克服的眾多問題包括對齊問題。人工智慧對齊(AI alignment)是指引導AI系統的行為,使其符合人類設計的利益、預期目標和價值觀。

目前已實現的AI僅能執行一項特定任務,下一階段則是假設的通用計算機系統「通用人工智慧」(Artificial general intelligence,AGI),擁有與人類相媲美或超越人類的智慧,能夠在許多領域完成各式各樣任務。

然而在應用上,根據推理,超級智慧可能會以非常規且激進方式達成目標,甚至假裝對齊以防止人類干擾。因此OpenAI超智慧對齊團隊的任務,是確保未來研發出的AGI能夠與設計者目標保持一致,而不是變成「失去控制的流氓」。

團隊與管理層就AI發展速度頻起內訌

但現在此規劃隨著團隊分崩離析而中止。率先離職是OpenAI共同創辦人暨首席科學家蘇茨克維(Ilya Sutskever),5月14日宣布離開待了近10年的公司,並意有所指表示,相信OpenAI在執行長阿特曼(Sam Altman)等人的領導下,能夠打造出安全又有益的AGI。

蘇茨克維對未來動向三緘其口,僅透露將專注於「對個人有意義」的項目。阿特曼隨即證實雙方「分道揚鑣」,並在社群網站X平台發文感謝其付出且稱他為AI界的指路明燈。兩人先前曾就AI的發展速度起內訌,阿特曼去年11月一度遭董事會解職,據悉就是由蘇茨克維率先發難,因不滿阿特曼急於推出AI產品卻忽視技術安全性。雖然蘇茨克維隨即改變想法,說服董事會促成阿特曼返回經營團隊,但他卻遲未回鍋,這半年來一直遠端共同領導「超智慧對齊」團隊。

安全流程被放在次要位置

該團隊工作的執行困難度,在另一位關鍵領導人的「脫隊」宣言中暴露出來。與蘇茨克維共同領導OpenAI「超智慧對齊」團隊的高階主管萊克(Jan Leike),也於15日離職。

萊克17日在X平台透露,當初加入OpenAI,認為這是世界上研究「如何引導和控制比人類更聰明的AI系統」最佳地方,然而他卻與OpenAI領導階層「在下一代模型的核心優先事項、安全、監控、準備、安全、對抗穩健性、(超智慧)對齊、保密性、社會影響」等方面,「存在分歧」。他心寒直言,這些方向很難解決,但認為公司沒有走在解決問題的正確軌道。

接著萊克語重心長說:「打造比人類更聰明的機器,本質上是危險的工作」、「OpenAI代表全人類承擔著巨大責任。但是安全文化和流程卻都被放在次要位置,反而優先考慮『閃亮的產品』」。

最新發展是,萊克於5月28日宣布加入OpenAI競爭對手「Anthropic」,其團隊將專注在AI安全。據悉,Anthropic的7名創辦人皆是OpenAI前員工,因為在AI模型安全性上有不同目標而走人。

OpenAI「超智慧對齊」團隊高階主管萊克的離職聲明,可看出不滿公司投注在安全把關的資源不足。翻攝X平台
OpenAI「超智慧對齊」團隊高階主管萊克的離職聲明,可看出不滿公司投注在安全把關的資源不足。翻攝X平台

安全把關受質疑

且隨著團隊的解散,外界關注誰來確保OpenAI的工作符合安全範圍?據彭博指,萊克原負責的安全工作由公司另一位聯合創辦人舒爾曼(John Shulman)接手,其研究重點是大型語言模型。然而舒爾曼忙於確保現有產品的安全,OpenAI未來進行的AI安全技術到底能有多嚴謹、是否具前瞻性,觀察家並不樂觀。

根據一名AI研究人員認定的「末日值」(probability of doom,也寫做「p(doom)」),AI有99.99%的機率會終結人類,避免此厄運的唯一方法,就是從一開始就不要建造AI。

美國新聞評論網站Vox引述知情人士指,「建立超智慧對齊團隊目的是,如果公司成功打造AGI,實際上會出現不同類型的安全問題」,「所以,這其實是對未來的專門投資」。

即使團隊全力運轉,該項「專門投資」也只屬於OpenAI一小部分研究人員,且僅投入的20%運算能力,對於一家AI公司也可能是最重要的資源。現在,這種運算能力可能會轉移給OpenAI其他團隊,目前尚無法預測是否會用來專注於避免AI模型未來對人類帶來的災難性風險。

知新聞 Line 官方帳號

# 人工對齊 # 人工智慧 # AI # AGI # 通用人工智慧