OpenAI新模型增加生物武器風險 AI專家呼籲速通過立法加強安全

國際 熱搜話題
2024/09/14 15:47
黃惠瑜 文章

【編譯黃惠瑜/綜合外電】OpenAI週四(9/12)推出了最新人工智慧(AI)模型,並表示新模型在科學、編碼與數學任務的領域上,其理解複雜任務與解決困難問題的能力,比先前的模型更上一層樓。儘管如此,OpenAI也承認最新模型將「顯著」增加AI被濫用來製造生物武器的風險。為此,AI專家警告,OpenAI的新模型「特別危險」,呼籲需要儘速通過AI安全法律。

OpenAI執行長阿特曼。法新社 zoomin
OpenAI執行長阿特曼。法新社
分享 連結 下載App

英國《金融時報》13日報導,OpenAI週四推出名為「o1」的新模型,並讚揚「o1」在推理、解決困難的數學問題與回答科學問題的各種新能力。這些進展被視為在創造「通用人工智慧」(Artificial general intelligence)上的重要突破,通用人工智慧是具有近似人類認知能力的AI。

然而,OpenAI也表示,此一新模型在化學、生物、放射性和核武器方面的風險標示為「中等」,代表這項技術已「顯著提升」了專家製造生物武器的能力。

蒙特婁大學(University of Montreal)計算機科學教授、世界領先的AI科學家之一班吉歐(Yoshua Bengio)表示,如果OpenAI現在在化學和生物武器方面的風險為「中等」,那麼這「只會強化立法的必要性和緊迫性」。他提到了目前在加州關於AI安全法案SB 1047的事。

加州AI安全法案SB 1047旨在為先進AI(frontier AI)模型建立安全規定,這些先進的系統有可能造成災難性的傷害。

班吉歐接受美國《新聞週刊》(Newsweek)採訪時表示,「AI推理能力的提升以及利用這種能力進行欺騙是特別危險的。我們必須制定像SB 1047這樣的監管措施,確保開發者在AI先進領域優先考慮公共安全」。

位於舊金山的非營利組織「人工智慧安全中心」(Center for AI Safety)主任亨德里克斯(Dan Hendrycks)表示,「這個模型在回答與生物武器相關的問題時,大多數情況下已經超越了具有博士學位的科學家。OpenAI持續提高對這些模型的風險估算,未來的風險預測肯定會進一步增加」。

亨德里克斯說,「SB 1047的批評者要求要有證據才能要求進行安全測試和設置防護措施,那麼他們認為什麼證據才算足夠?我們需要停止拖延戰術,讓SB 1047成為法律」。

相關新聞:

專案代號「草莓」!OpenAI推出新AI模型 具有推理功能

知新聞 Line 官方帳號

⭐️ 即刻下載《知新聞》App!免費!

# AI # 人工智慧 # 通用人工智慧