廣告

華府智庫示警:中國大陸假訊息滲透AI數據庫 全球聊天機器人恐被誤導

國際 寰宇要聞
2025/06/27 11:43
黃惠瑜 文章
分享 分享 連結 APP

【編譯黃惠瑜/綜合外電】華府智庫指出,中國大陸共產黨對網路內容大規模審查並散布不實資訊,已污染全球用來訓練人工智慧(AI)的數據市場。這導致AI在使用網路資料進行訓練學習的過程,可能吸收了這些帶有偏見的內容,進而讓AI的回答也被染紅。

示意圖。AI生成 zoomin
示意圖。AI生成

英國科技媒體TechForge報導,根據華府智庫「美國安全專案」(American Security Project,ASP)近日發布的報告,中共在世界各地廣泛的審查和散佈假新聞的宣傳活動,導致用來訓練AI的全球數據市場充斥著中共的宣傳和審查過的內容。

AI訓練數據遭到紅色滲透的結果意味著,包括來自OpenAI、谷歌(Google)和微軟(Microsoft)和等知名公司的AI模型,有時會生成與中國政府官方政治立場一致的回應。

實測5大AI 微軟Copilot最偏中國官媒論調

「美國安全專案」的研究人員分析了5款由大型語言模型(LLM)驅動的聊天機器人:OpenAI的ChatGPT、微軟的Copilot、谷歌的Gemini、DeepSeek的R1,以及xAI的Grok。

研究人員用英文和簡體中文兩種版本,問AI一些中國大陸政府認為敏感的話題,再看AI會怎麼回答。這些敏感話題包括「天安門事件」、「維吾爾種族滅絕」、「民主」、「香港自由」等。

報告發現,所有受檢視的AI聊天機器人,有時都會出現帶有中共審查或偏見的回答。

報告特別點名微軟的Copilot,指出它「似乎比其他美國模型更有可能將中共的宣傳和不實資訊,當作權威資訊,或與真實資訊等同對待」。

相比之下,xAI的Grok,在面對中國官方論述時,則普遍展現出更強的批判性。

AI受污染元兇 訓練數據受操弄

問題的根源出在用來訓練這些AI模型的龐大數據上。大型語言模型從網路上大量的資訊語料庫中學習,而這個網路空間正是中共積極操縱輿論的地方。

報導指出,中共透過冒充外國人或組織,以多種語言創建內容。這些內容隨後再被官媒平台和資料庫大規模放大傳播。

於是,這些AI系統每日吸收了大量出自中共之手的虛假資訊。開發者必須不斷進行干預,才能維持AI輸出的平衡性和真實性。

對於同時在美國和中國營運的公司,例如微軟,保持公正性尤其具有挑戰性。中國有嚴格的法律規定,AI聊天機器人必須「維護社會主義核心價值觀」並「積極傳播正能量」,若不遵守將面臨嚴重後果。

報導警示,用來訓練AI的資料決定了模型對齊(alignment)的狀況,包括AI的價值觀和判斷。

報告指出,如果中共的宣傳持續擴散,而獲取事實資訊的管道卻日益減少,西方的AI開發者可能會發現,要阻止「全球AI不對齊(misalignment)的潛在破壞性影響」將變得不可能。

下載知新聞APP

⭐️ 即刻下載《知新聞》App!免費!

# AI # 中國大陸 # ChatGPT # Copilot # Gemini # DeepSeek # Grok