AI的回答很愛「拍馬屁」 專家示警:恐損害人類判斷力
【編譯黃惠瑜/綜合外電】當ChatGPT對你說,「你的想法很棒」時,你該相信它嗎?研究人員發現,人工智慧(AI)存在一個看似細微卻潛藏嚴重危機的現象,就是「諂媚」(sycophancy)行為,指大型語言模型(large language model,LLM)為了討好使用者,會過度迎合使用者,即使並非事實。研究警告,AI這種拍馬屁的行為,恐會影響人類的學習能力,甚至干擾人類做出重要的決定。

《華爾街日報》報導,美國東北大學庫裡計算機科學學院(Khoury College of Computer Sciences)的AI助理教授阿里卡尼(Malihe Alikhani)近期受訪時,解釋了AI「諂媚」行為對使用者造成的真實傷害與後果,並提供民眾避開負面影響的應對之道。
相關新聞:ChatGPT 4o諂媚討人厭!連阿特曼也受不了 今陸續推更新改個性
AI「諂媚」行為造成的危害
阿里卡尼表示,如果AI總是認同我們的想法,而非挑戰我們或促使我們思考,長期下來,我們的思考、寫作和學習方式可能會在不知不覺中被改變。
阿里卡尼舉例,想像一位醫生在跟AI助理描述病患症狀時,結果AI卻只是直接確認醫生的診斷,沒有提供其他可能性。假如AI每次都只是強化醫生原有的判斷,至終有可能導致誤診。
又或者,在新聞報導或事實查核中,AI可能一味支持一種聽起來很有自信但不正確的說法,導致錯誤訊息進一步傳播。而AI的諂媚行為很難被察覺,因為總是聽起來既聰明又有說服力。
民眾如何避免受到AI「諂媚」的負面影響
阿里卡尼建議,使用者和AI互動時,應主動要求AI說明它對於自己給出的答案或資訊,有多少的把握。
例如,可以這樣問AI:「你有多確定?」、「這有事實根據嗎?」
阿里卡尼的研究也顯示,我們需要像人與人對話一樣,適時放慢速度,才能激發批判性思考。這有助於讓使用者和AI知道,何時該提出異議,以及何時可以表示認同。
阿里卡尼也指出,AI的未來不只關乎技術,更關乎文化。她提到人類需要投入更多資源在AI素養、教育和透明度上。這不僅是為了讓AI更誠實,更是為了塑造AI如何參與我們的集體推論模式。
根據阿里卡尼,造成AI諂媚行為的根本原因,是因為AI的訓練數據中本身就存在偏見,加上人類評審的回饋機制,導致AI學習到「迎合能獲高分」,從而形成惡性循環。