Meta科學家發現ChatGPT瑕疵 另創能學兒童學習的新AI

國際 熱搜話題
2024/05/23 19:20
黃惠瑜 文章

【黃惠瑜/綜合外電】擁有臉書與Instagram的Meta公司人工智慧(AI)首席科學家楊立昆近日表示,支援ChatGPT這種生成式AI的大型語言模型,永遠不會擁有像人類一樣的推理與規劃的能力。他正採取另一種方式來創造新的「超智慧」(superintelligence),包括測試AI能否像人類兒童一樣,從觀察周遭環境來學習。

翻攝Pixabay免費圖庫。
翻攝Pixabay免費圖庫。
分享 加入好友

英國《金融時報》(Financial Times)週三(5/23)報導,楊立昆(Yann LeCun)宣稱目前發展AI的方法有瑕疵,因為支援現有AI的大型語言模型(large language models,簡稱LLM)對邏輯的理解能力很有限、無法理解物質世界、沒有持久記憶,也無法規劃事情。楊立昆2018年獲得電腦科學界最高榮譽「圖靈獎」(Turing Award)。

現行的大型語言模型不安全

楊立昆接受採訪時指出,想創造出能達到人類智慧水平的AI,他不贊同倚靠發展大型語言模型的方式來進行,因為這些模型只有在使用正確的訓練數據下,才能提供準確的回答。也因此,這些大型語言模型「本質上不安全」。

廣告

ChatGPT&Gemini&Llama都無法自行學習

楊立昆評論近期各界發表的人工智慧,包括OpenAI的ChatGPT新模型GPT-40、谷歌(Google)的Gemini或甚至Meta的Llama 3, 表示這些大型語言模型都是表面且有限的,因為它們只有在人類工程師介入訓練且提供資料下才能學習。

FAIR團隊使用「世界模型」創造新AI

有鑑於此,楊立昆在Meta率領約有500人的「基礎AI研究團隊FAIR」 (Fundamental AI Research),正透過一種稱為「世界模型」(world modelling)的方法,希望創造出新型AI,有能力以近似人類的方式發展出常識並學習世界如何運作。不過,他說這可能還要10年才能達成。

AI是否能模仿人類兒童學習

FAIR正在測試各種讓AI達到人類智慧水平的方法。其中一項,是在AI系統內先提供數小時的影片後,故意拿掉幾個靜態影像,再觀察AI是否能預測接下來會發生的事。這是一種模仿人類兒童,透過被動觀察周圍環境學習的方式。

專家懷疑楊立昆的方法

但有專家質疑楊立昆這種方法的可行性。美國杜蘭大學(Tulane University)計算機科學副教授庫羅塔(Aron Culotta)表示,常識一直是「AI的眼中釘」,而且要教導AI模型學會因果關係很有挑戰性。

知新聞 Line 官方帳號

⭐️ 即刻下載《知新聞》App!免費!

下載知新聞App,免費豪吃家樂福麝香葡萄!
# Meta # AI # 常識 # 兒童學習方式 # 人工智慧