廣告
諾貝爾獎新科得主談OpenAI逼宮風波 「很自豪我學生解雇了阿特曼」

諾貝爾獎新科得主談OpenAI逼宮風波 「很自豪我學生解雇了阿特曼」

【編譯張翠蘭/綜合外電】被業界喻為「深度學習之父」的2024諾貝爾物理獎新科得主辛頓,不斷呼籲世界關注他催生的人工智慧(AI)技術對人類帶來之風險,也絲毫不掩飾對當今業界龍頭OpenAI執行長阿特曼領導能力有意見。辛頓日前獲獎後談及樂見阿特曼去年一度遭「逼宮」開除事件,並對於昔日得意門生在此風波發揮關鍵作用而感到自豪。
邪惡版GPT橫行!全球駭客尋找AI漏洞 資安問題日益嚴重

邪惡版GPT橫行!全球駭客尋找AI漏洞 資安問題日益嚴重

【編譯黃惠瑜/綜合外電】正當士農工商各行各業期盼借人工智慧(AI)之力加速翻轉時,全球卻有另一群網路駭客正在利用AI的弱點,將原本AI模型改編成各種有害的模型,例如編寫惡意程式碼竊取使用者的機密資料,或為詐騙集團建立客製化的自動式網路釣魚攻擊。目前AI專家已在大型AI身上找到各種漏洞,包括OpenAI的ChatGPT、臉書母公司Meta的Llama、谷歌的Gemini,顯示科技公司求快推出AI,將導致資安危機變得日益嚴重。
OpenAI前首席科學家創立新公司 獨一重點:開發安全的超智慧

OpenAI前首席科學家創立新公司 獨一重點:開發安全的超智慧

【編譯黃惠瑜/綜合外電】繼OpenAI前安全團隊關鍵領導人萊克上月底宣布加入新創公司Anthropic,繼續管控人工智慧(AI)安全後,OpenAI共同創辦人、前首席科學家蘇茨克維也在週三(6/19)宣布成立新公司,旨在建立安全的超級人工智慧(superintelligence,簡稱超智慧),新公司名稱直接叫作「安全的超智慧」(Safe Superintelligence Inc.,簡稱SSI)。
獨家|「AI對齊」避免人工智慧出餿主意 專家:永遠做不完!要持續精進

獨家|「AI對齊」避免人工智慧出餿主意 專家:永遠做不完!要持續精進

【記者王良博/台北報導】ChatGPT等人工智慧(AI)大型語言模型正夯,卻也衍生AI對齊問題(alignment problem)。陽明交大資訊工程學系特聘教授吳毅成解釋,當AI回答問題時,能不造成危害、符合期待,「不出餿主意」,即是「對齊」。他也指出,「對齊一定做不完」,就像資安、防毒技術,不可能做到100%擋下病毒或攻擊,AI對齊技術也要持續精進。
「超智慧對齊」團隊解散大爆AI疑慮 OpenAI挨批輕視人類滅絕風險

「超智慧對齊」團隊解散大爆AI疑慮 OpenAI挨批輕視人類滅絕風險

【張翠蘭/綜合外電】人工智慧(AI)聊天機器人ChatGPT開發商OpenAI,旗下風險控制團隊「超智慧對齊」(Superalignment)日前宣告解散,使得旨在保護人類文明免受AI侵害的計劃成立不到1年就瓦解。有團隊成員大爆對AI發展的安全疑慮,並稱對執行長阿特曼「失去信任」。各界也高度關注OpenAI日後的安全相關工作如何把關。
Meta科學家發現ChatGPT瑕疵 另創能學兒童學習的新AI

Meta科學家發現ChatGPT瑕疵 另創能學兒童學習的新AI

【黃惠瑜/綜合外電】擁有臉書與Instagram的Meta公司人工智慧(AI)首席科學家楊立昆近日表示,支援ChatGPT這種生成式AI的大型語言模型,永遠不會擁有像人類一樣的推理與規劃的能力。他正採取另一種方式來創造新的「超智慧」(superintelligence),包括測試AI能否像人類兒童一樣,從觀察周遭環境來學習。
載入更多