獨家|「AI對齊」避免人工智慧出餿主意 專家:永遠做不完!要持續精進

獨家|「AI對齊」避免人工智慧出餿主意 專家:永遠做不完!要持續精進

【記者王良博/台北報導】ChatGPT等人工智慧(AI)大型語言模型正夯,卻也衍生AI對齊問題(alignment problem)。陽明交大資訊工程學系特聘教授吳毅成解釋,當AI回答問題時,能不造成危害、符合期待,「不出餿主意」,即是「對齊」。他也指出,「對齊一定做不完」,就像資安、防毒技術,不可能做到100%擋下病毒或攻擊,AI對齊技術也要持續精進。
「AI對齊」議題 數位部採取4大行動面對

「AI對齊」議題 數位部採取4大行動面對

【記者蕭文康/台北報導】有鑒於人工智慧(AI)近期蓬勃發展,但也帶來許多挑戰,「AI對齊」議題引發關注。確保其應用與全民利益保持一致,數位發展部指目前先從4大措施做起,包括成立AI評測中心、發布AI評測指引、成為國際非政府組織「集體智慧計畫」合作夥伴、舉辦「運用AI促進資訊完整性審議式民主活動」,邀請國際重要AI廠商進行交流,例如Meta、Google、Microsoft、OpenAI等與會廠商皆認同AI須具備可信任、準確性及安全等重要特性。 數位部強調,未來將持續與各界對話,致力推動可信任AI,協力創造社會所需的各項AI應用服務。
「超智慧對齊」團隊解散大爆AI疑慮 OpenAI挨批輕視人類滅絕風險

「超智慧對齊」團隊解散大爆AI疑慮 OpenAI挨批輕視人類滅絕風險

【張翠蘭/綜合外電】人工智慧(AI)聊天機器人ChatGPT開發商OpenAI,旗下風險控制團隊「超智慧對齊」(Superalignment)日前宣告解散,使得旨在保護人類文明免受AI侵害的計劃成立不到1年就瓦解。有團隊成員大爆對AI發展的安全疑慮,並稱對執行長阿特曼「失去信任」。各界也高度關注OpenAI日後的安全相關工作如何把關。
載入更多