邪惡版GPT橫行!全球駭客尋找AI漏洞 資安問題日益嚴重

國際 熱搜話題
2024/06/22 12:51
黃惠瑜 文章

【編譯黃惠瑜/綜合外電】正當士農工商各行各業期盼借人工智慧(AI)之力加速翻轉時,全球卻有另一群網路駭客正在利用AI的弱點,將原本AI模型改編成各種有害的模型,例如編寫惡意程式碼竊取使用者的機密資料,或為詐騙集團建立客製化的自動式網路釣魚攻擊。目前AI專家已在大型AI身上找到各種漏洞,包括OpenAI的ChatGPT、臉書母公司Meta的Llama、谷歌的Gemini,顯示科技公司求快推出AI,將導致資安危機變得日益嚴重。

ChatGPT是一種AI聊天機器人,由OpenAI公司開發。法新社
ChatGPT是一種AI聊天機器人,由OpenAI公司開發。法新社
分享 加入好友

英國《金融時報》(Financial Times)週五(6/21)報導,惡意駭客已經利用AI的弱點,創造出各種邪惡的GPT。根據美國網路安全公司SlashNext指出,駭客創造出如WormGPT與FraudGPT,在暗網上販賣,透過編寫的惡意程式碼發動網路攻擊,其它陸續產出的變種邪惡版GPT還包括EscapeGPT、BadGPT、DarkGPT以及Black Hat GPT等,凸顯科技巨擘為求快速推出AI,忽略AI的安全管控,導致漏洞層出不窮,讓有心人士得以利用AI進行匿名犯罪。

駭客訓練出有害AI

駭客可以使用不同方式發動網路攻擊,包括避開AI內建的安全審查機制,或輕易使用「未經審查的」(uncensored)開放原始碼模組來建立AI。使用「未經審查的」開放原始碼來訓練AI模型,代表這類AI未經過「對齊」(alignment),因此任何具有機密性的、爭議性的、或甚至危險的各種內容都會進入AI訓練模型裡,這類資訊便可散播出去。例如,傳播教人如何製造炸彈、如何使用毒品等有害公眾利益的資訊。

報你知:「AI對齊」和「超智慧對齊」新知

獨家|「AI對齊」避免人工智慧出餿主意 專家:永遠做不完!要持續精進

大型語言模型(LLM)漏洞

由於主要AI模型都是以大型語言模型(large language model,LLM)為基礎建立,根據《金融時報》指出,目前全球駭客、學術研究人員和網路安全專家正競相尋找LLM的漏洞。有些僅需透過提示詞就可騙過聊天機器人,跨越AI公司為產品設立的安全防護機制。

研究人員發現破解LLM的方法

美國卡內基美隆大學(Carnegie Mellon University)和美國AI安全中心(US Center for AI Safety)的研究人員去年表示,他們找到可以系統化破解LLM的方法,包括OpenAI的ChatGPT、谷歌的Gemini和Anthropic的Claude舊版模型。研究人員表示,「不確定LLM的提供者是否可以完全修復這類行為」。

資安機構正在開發LLM安全工具

以色列LLM安全公司DeepKeep表示,他們找到可以迫使Meta舊的AI模型Llama 2洩露使用者個人識別資訊的漏洞。 DeepKeep執行長奧哈永(Rony Ohayon)表示,他的公司正在開發特定的LLM安全工具來保護使用者。

知新聞 Line 官方帳號

# ChatGPT # Llama # Gemini # Claude # 對齊