邪惡版GPT橫行!全球駭客尋找AI漏洞 資安問題日益嚴重
【編譯黃惠瑜/綜合外電】正當士農工商各行各業期盼借人工智慧(AI)之力加速翻轉時,全球卻有另一群網路駭客正在利用AI的弱點,將原本AI模型改編成各種有害的模型,例如編寫惡意程式碼竊取使用者的機密資料,或為詐騙集團建立客製化的自動式網路釣魚攻擊。目前AI專家已在大型AI身上找到各種漏洞,包括OpenAI的ChatGPT、臉書母公司Meta的Llama、谷歌的Gemini,顯示科技公司求快推出AI,將導致資安危機變得日益嚴重。
英國《金融時報》(Financial Times)週五(6/21)報導,惡意駭客已經利用AI的弱點,創造出各種邪惡的GPT。根據美國網路安全公司SlashNext指出,駭客創造出如WormGPT與FraudGPT,在暗網上販賣,透過編寫的惡意程式碼發動網路攻擊,其它陸續產出的變種邪惡版GPT還包括EscapeGPT、BadGPT、DarkGPT以及Black Hat GPT等,凸顯科技巨擘為求快速推出AI,忽略AI的安全管控,導致漏洞層出不窮,讓有心人士得以利用AI進行匿名犯罪。
駭客訓練出有害AI
駭客可以使用不同方式發動網路攻擊,包括避開AI內建的安全審查機制,或輕易使用「未經審查的」(uncensored)開放原始碼模組來建立AI。使用「未經審查的」開放原始碼來訓練AI模型,代表這類AI未經過「對齊」(alignment),因此任何具有機密性的、爭議性的、或甚至危險的各種內容都會進入AI訓練模型裡,這類資訊便可散播出去。例如,傳播教人如何製造炸彈、如何使用毒品等有害公眾利益的資訊。
獨家|「AI對齊」避免人工智慧出餿主意 專家:永遠做不完!要持續精進
大型語言模型(LLM)漏洞
由於主要AI模型都是以大型語言模型(large language model,LLM)為基礎建立,根據《金融時報》指出,目前全球駭客、學術研究人員和網路安全專家正競相尋找LLM的漏洞。有些僅需透過提示詞就可騙過聊天機器人,跨越AI公司為產品設立的安全防護機制。
研究人員發現破解LLM的方法
美國卡內基美隆大學(Carnegie Mellon University)和美國AI安全中心(US Center for AI Safety)的研究人員去年表示,他們找到可以系統化破解LLM的方法,包括OpenAI的ChatGPT、谷歌的Gemini和Anthropic的Claude舊版模型。研究人員表示,「不確定LLM的提供者是否可以完全修復這類行為」。
資安機構正在開發LLM安全工具
以色列LLM安全公司DeepKeep表示,他們找到可以迫使Meta舊的AI模型Llama 2洩露使用者個人識別資訊的漏洞。 DeepKeep執行長奧哈永(Rony Ohayon)表示,他的公司正在開發特定的LLM安全工具來保護使用者。