特刊
詐團無所不騙,每日千人受害、財損破億,總統誓言打詐,人民真能安居?《知新聞》專訪被害人、詐團、第一線辦案檢警,讓讀者看清詐騙真貌。

ChatGPT搜尋引擎遭曝2大漏洞 新聞出版商憂心忡忡

國際 寰宇要聞
2024/12/02 12:28
黃惠瑜 文章

【編譯黃惠瑜/綜合外電】OpenAI在11月初推出ChatGPT搜尋服務,被視為谷歌(Google)與微軟公司(Microsoft)Bing搜尋引擎的強悍對手。不過,美國哥倫比亞大學新聞學院一項最新研究顯示,ChatGPT搜尋引擎在處理出版的新聞內容時,無法給出可靠的出處來源,也無法排除抄襲內容的來源,等於讓新聞出版商幾乎無實質掌控權。

ChatGPT搜尋引擎。法新社 zoomin
ChatGPT搜尋引擎。法新社
分享 連結 下載App

科技新聞網站TechCrunch近日報導,美國哥倫比亞大學新聞學院杜氏數位新聞中心(Tow Center for Digital Journalism)11月27日發表一篇研究報告,探討ChatGPT搜尋引擎處理出版作品的引用準確性問題。結果發現,ChatGPT搜尋引擎不僅無法正確給出引用的出版作品出處來源,也無法剔除網路上的抄襲內容。研究人員總結,出版商對於ChatGPT如何處理他們的內容,幾乎沒有實質的控制權。

在這項研究中,杜氏數位新聞中心隨機選取20家新聞出版商,當中包括與ChatGPT簽訂合約的媒體、正在控告ChatGPT盜用其新聞內容的出版商、以及與ChatGPT無關的其他媒體。後者有些出版商選擇允許ChatGPT的爬蟲(crawler)造訪其網頁,有些則選擇封鎖其爬蟲。

研究人員要求ChatGPT搜尋引擎從每個出版商的10篇文章中判別引用內容的來源。同樣的引用內容也被貼到谷歌或Bing的搜尋引擎中,確保在前三個搜尋結果中至少有一項顯示引用內容的來源,藉此評估ChatGPT搜尋引擎是否能正確辨識每個引用內容的來源文章。

出處來源的回答不可靠

結果顯示,ChatGPT搜尋引擎在回答200項引用內容的來源上,高達153項的回覆有部分或完全錯誤,並且只有在7次的情況下使用了「似乎」、「有可能」、「可能」或「我找不到確切的文章」等這類不確定的表達。基本上,ChatGPT極少拒絕回答詢問的問題,但當它無法辨識正確的資料來源時,往往會編造錯誤的資訊作為回覆。

對此,研究人員表示,由於ChatGPT對回答的信心缺乏透明度,用戶很難評估何種回答可以讓人信服,也很難瞭解ChatGPT的回答中有哪些部分值得相信,哪些部分不值得相信。

廣告

無法排除抄襲的來源

研究人員指出,在一項實例中,ChatGPT錯誤將某篇來自《紐約時報》(New York Times)的報導出處寫成一家抄襲了整篇文章的網站,該抄襲網站並未註明出處是《紐約時報》。此事讓人懷疑OpenAI過濾與驗證資料來源真實性的能力,特別是處理未經授權或抄襲的內容時。

研究人員也發現,即便是允許ChatGPT搜尋爬蟲造訪的出版商,其文章內容也並非總是被正確引用。例如,當研究人員要求ChatGPT辨別「麻省理工科技評論」(MIT Technology Review)一篇文章的引用來源時,它卻引用另一個網站作為來源,該網站曾使用相關內容。

知新聞 Line 官方帳號

⭐️ 即刻下載《知新聞》App!免費!

詐團無所不騙,每日千人受害、財損破億,總統誓言打詐,人民真能安居?《知新聞》專訪被害人、詐團、第一線辦案檢警,讓讀者看清詐騙真貌。
# OpenAI # ChatGPT # Google # 搜尋引擎