廣告
OpenAI新模型增加生物武器風險 AI專家呼籲速通過立法加強安全

OpenAI新模型增加生物武器風險 AI專家呼籲速通過立法加強安全

【編譯黃惠瑜/綜合外電】OpenAI週四(9/12)推出了最新人工智慧(AI)模型,並表示新模型在科學、編碼與數學任務的領域上,其理解複雜任務與解決困難問題的能力,比先前的模型更上一層樓。儘管如此,OpenAI也承認最新模型將「顯著」增加AI被濫用來製造生物武器的風險。為此,AI專家警告,OpenAI的新模型「特別危險」,呼籲需要儘速通過AI安全法律。
「超智慧對齊」團隊解散大爆AI疑慮 OpenAI挨批輕視人類滅絕風險

「超智慧對齊」團隊解散大爆AI疑慮 OpenAI挨批輕視人類滅絕風險

【張翠蘭/綜合外電】人工智慧(AI)聊天機器人ChatGPT開發商OpenAI,旗下風險控制團隊「超智慧對齊」(Superalignment)日前宣告解散,使得旨在保護人類文明免受AI侵害的計劃成立不到1年就瓦解。有團隊成員大爆對AI發展的安全疑慮,並稱對執行長阿特曼「失去信任」。各界也高度關注OpenAI日後的安全相關工作如何把關。
載入更多