最常見AI惡意使用非網路詐騙 Google首揭:政客名人「深偽」真假難辨
【編譯張翠蘭/綜合外電】隨著生成式人工智慧(AI)的廣泛應用,也衍生大量錯誤訊息和潛在有害內容氾濫的問題。Google旗下深度學習團隊DeepMind近日發布針對AI最常見惡意使用行為的首次研究報告,指出由AI生成的假冒政治和名人的「深偽」(deepfake),多過於用來協助網路詐騙和攻擊。
根據英國《金融時報》6月25日報導,Google的AI團隊DeepMind這項研究旨在量化生成式AI的風險。該團隊與Google另一研發團隊Jigsaw的研究人員,分析2023年1月至2024年3 月期間,觀察到社群媒體X平台、熱門網路論壇Reddit,以及網路部落格和媒體通報的約200起濫用事件。
結果發現,透過AI利用真實人物生成出來的該人士虛假圖像、影片和音檔的現象,將近是濫用AI產生虛假資訊的兩倍多;該行為是指使用聊天機器人等以文字為主的工具,來生成錯誤資訊並發布上線。
最常見目的是帶風向
據分析,濫用生成式AI的最常見目的是塑造或影響公眾輿論;該因素佔了27%,加劇人們對深偽可能影響今年全球選舉的擔憂。
最近的選舉是7月4日英國國會大選,近幾個月來,短影音平台TikTok和社群網站X平台、Instagram,出現不少英國首相蘇納克(Rishi Sunak)及其他全球領導人的深偽內容。儘管社群媒體積極刪除或標記這些造假訊息,但讀者可能不會認為這些資訊是假的,且傳播的內容可能影響選民判斷。英國國家AI和數據科學研究院的圖靈研究院 (The Alan Turing Institute) 研究員楊傑瓦(Ardi Janjeva)指出,這份報告所發現AI生成內容對公開資訊的污染,可能「扭曲我們對社會政治現實的集體理解」,這種扭曲在短期內很難發現,對我們的民主國家構成長期風險」。
為了賺錢而濫用AI
濫用生成式AI的第二個常見動機則是為了賺錢,不管是提供真人虛假裸照在內的深偽服務,還是假造新聞文章的生成式AI大量內容。
研究發現,大多數惡意使用AI的事件都使用易於取得的工具,「只需最少的專業技術」,意味著有更多的不良意圖行為者可以濫用生成式AI產生內容。
報導指,隨著OpenAI的ChatGPT和Google的Gemini等生成式產品使用越來越廣泛,各家AI公司也開始監控由其工具創建的大量錯誤訊息和其他潛在有害或不道德的內容。
今年5月,OpenAI發布研究指出,與俄羅斯、中國、伊朗和以色列有關的組織,一直在利用其AI工具製造和傳播虛假訊息。