生成式AI有5大風險!中研院士孔祥重提解方 找人文社會領域來幫忙
【記者王良博/台北報導】近年人工智慧(AI)蓬勃發展,學生選系出現「輕人文重理工」趨勢。中研院院士、電腦科學家孔祥重今(2)日表示,人文社會領域的專業,了解什麼樣的文化對社會比較好,有能力讓AI更安全,人文社會領域專家一定要進入AI領域,中研院、國家可以透過各種措施,鼓勵AI、人文社會領域互相幫助。
AI帶來影響比網路更巨大
中央研究院第35次院士會議昨(1)日起連4天舉行,今天上午邀請中研院院士、哈佛大學電腦科學與電子工程比爾蓋茲講座教授孔祥重演講,演講主題為「擁抱生成式人工智慧」,演講完畢孔祥重也接受媒體採訪,談論AI議題。
演講一開始,孔祥重就回顧,30年前也曾在中研院以網路發展為題演講,但今天演講的生成式AI,是比網路發展更具影響力的主題。
他介紹,生成式AI發展快速,可以透過文字接龍方式,生成不同文字內容,也可以給予文字敘述後生成圖片。另外,ChatGPT橫空出世後,更影響了不少學者的研究方向。
AI風險:出錯、擴大數位落差
話鋒一轉,孔祥重談起生成式AI可能的五項風險。首先是可能輸出錯誤內容,例如生成式AI的資料庫太大,無法確保資料庫中所有內容都正確,以及AI模型不夠完美,都可能使得AI產出的內容有錯誤。
再者,AI可能輸出有問題的內容。孔祥重舉例,生成式AI有可能提供具傷害性的東西,或者洩漏敏感資訊。
第三,孔祥重說,AI可能不安全,例如恐遭受駭客入侵等;第四則是AI可能無法持續,因為對人力、電力等需求龐大。
最後,孔祥重提及,生成式AI可能使得數位落差擴大。他舉例,優秀的學生因為AI而表現越來越好,但一般的學生,可能會因此缺乏訓練,而變得知識淺薄,像是學生可能會直接複製AI提供的內容來交作業。
人社領域可協助AI發展
針對如何應對AI的風險,孔祥重表示,必須讓AI變得安全,確保AI做的事情是安全的,且產出的東西符合人們的價值觀。
他建議,台灣可以開發符合民主、自由、多元等價值觀的生成式AI模型,這樣能跟台灣在晶片供應鏈中的優勢地位互補。
他強調,這些在地化的努力無法已現有資料庫去修改而成,必須投入許多成本進行,雖然成本很高,但仍有必要,可讓AI能安全、可信賴地使用。
他也特別提及,人文社會領域,可對於讓AI更安全、更聰明做出貢獻。
然而,近年「重理工、輕人文」趨勢明顯,理工領域學生變多,但人文社會領域卻減少,對此,孔祥重強調「人文的人一定要進來(AI領域)」,因為人文社會領域專家比較了解,什麼樣的文化對社會比較好,應該將AI調整到哪一個方向。
他也惋惜,現在人文社會領域學者大多只有「使用AI」,但他們其實可以給予AI領域更多協助,中研院、國家可以透過各種獎勵措施,鼓勵AI、人文社會領域互相幫助。
示警台灣算力資源不足
另外,孔祥重也提出,台灣發展AI的算力完全不夠,全台灣的GPU(圖形處理器)加起來,還不到美國一些公司的1%,因此台灣需要更多的算力資源。
他進一步建議,台灣可以透過開發高效的分散式AI,來節省AI帶來的能源消耗問題,此部分需要善用台灣在硬體方面的優勢。