AI恐致社會瓦解 專家籲:該全面透明不要成為黑盒子
【黃惠瑜/綜合外電】ChatGPT之父OpenAI執行長阿特曼(Sam Altman)視人工智慧(AI)技術為引領人類走向蓬勃未來的道路,但批評者預言AI將造成社會瓦解以及企業權利過度擴張。近期OpenAI爭議,無論是解散安全團隊或是「撞聲」知名美國女星史嘉蕾喬韓森(Scarlett Johansson),都凸顯AI公司增加透明性的必要性。
英國《金融時報》近日指出,美國史丹佛大學(Stanford University)發現AI領頭公司谷歌(Google)、亞馬遜(Amazon)、擁有臉書(Facebook)與Instagram的Meta以及OpenAI的透明度皆未達標。自從OpenAI的ChatGPT在全球掀起一波商業熱潮,上述公司都對透明度議題保持沈默。但隨著AI的潛在危險,這些AI公司需要恢復他們從前公開透明的態度。
AI透明度可分為兩個主要領域:輸入和模型。大型語言模型(large language models,簡稱LLM)是生成式AI的基礎,例如OpenAI的ChatGPT或谷歌的Gemini,訓練的方式是透過在網路上如撒網式搜尋所謂「資料集」(data sets)來分析與學習,這些集合式的資訊囊括社群媒體平台Reddit甚至畢卡索畫作。在AI發展早期,研究員經常會在科學期刊上揭露訓練的數據,允許其他人藉由評估輸入資料的品質來診斷有瑕疵的地方。
但現在AI公司會隱瞞這些資訊的細節,一方面可避免收到版權侵權投訴,另一方面可維持競爭優勢。這些隱瞞行為讓AI回覆的正確性變得難以評估,也讓作家、演員和其他創意人員無法深入瞭解其隱私權或智慧財產權是否已遭到蓄意侵犯。
這些不透明行為讓社會大眾與監管機關難以評估AI的安全性,更遑論保護民眾免於潛在危險。
《金融時報》指出,AI公司認為透明度的規範會減緩創新並削弱競爭優勢,但AI技術的進展卻是過去共同合作與共享研究資源帶來的成果,因此如今更需要恢復透明度規範,增加大眾信任,帶來更快速與更安全的創新技術。