亞洲首例!衛福部:台灣有很強半導體+健保 10院成立「負責任AI」中心應用22.9萬人次
【記者陳怡文/台北報導】科技進步,人工智慧(AI)運用廣泛,在醫療上也是百花齊放,衛福部今(4/21)舉行負責任AI執行中心成果發表會,目前全台共有10家醫院參與項目,這半年來已有22.9萬人次導入負責任AI落地應用,衛福部直言,台灣現在有一個非常強的半導體,另一方面有非常強的健保系統,這兩個部分如果能夠結合起來的話,對於整體民眾未來在臨床準確性會大大提高,台灣是除了美國跟歐盟之外,亞洲第一個AI執行中心。

負責任AI執行中心於2024年10/7正式啟動,旨在推動人工智慧技術於醫療領域的落地應用,同時確保技術發展符合負責任AI原則,中心召集人為台大醫院院長吳明賢。目前,全台共有10家醫院獲得補助成立該中心,包括林口長庚、台北榮總、高醫大附設中和醫院、中國醫藥大學附設醫院、彰基、奇美、聯新國際、嘉義長庚、土城長庚及新北仁康醫院,共同目標就是確保AI醫療產品的使用安全、資訊透明,並兼顧公平性,讓醫療環境更值得信賴。
衛福部今舉行負責任AI執行中心成果發表會,衛福部資訊處技監兼處長李建璋說明推動規劃與目標,他提到醫療AI的監管是實現智慧醫療最重大的挑戰,現在的AI在醫療上百花齊放,可以協助醫生進行診斷與風險預測,影像及心電圖判讀,輔助病例寫作,但若缺乏適當監管,AI應用可能引發嚴重的倫理風險,過度監管也可能影響AI發展。

李建璋說明,AI醫療應用缺乏監管下有7大倫理危機,包含不自主:AI可能自行下決策,取代醫師判斷,甚至造成病人傷害;不當責:AI決策出錯無人負責,模糊法律責任歸屬;不安全:AI系統錯誤將直接影響病人安全;不透明:AI黑盒子決策難以解釋,醫師無法質疑或修正;不隱私:大量個資在AI訓練應用過程可能被外洩或濫用;不公平:弱勢族群AI斬斷準確性不足,產生醫療不平等;不永續:AI模型準確度隨時間下降,含有耗能問題。
為推動AI法源落地行動,衛福部首創負責任AI中心,資訊處訂定第一個醫療場域負責任AI實施細則,包含一、資安與隱私保護,像是今天早上中壢的一家醫院就有8萬筆個資被盜,另外,當雲端資料被加密是不是就失靈了,但已成大家的依靠卻突然不能用,所以醫院要強化資安,傳出去的個資不會外洩如去識識別化等,醫院須成立委員會與制定辦法。
二、不能讓AI是黑盒子,透明性原則與可解釋,AI是樣本訓練出來,經台灣醫院驗證,符合台灣醫療,什麼狀況不適合、禁忌、準確性等,都必須讓醫生在使用AI時螢幕上就能看到,不能突然才掉出「病人會猝死」等,這要求AI落地後要大9大指標,如九大透明性指標包括:介入詳情及輸出、介入目的、介入的警告範圍外使用、介入開發詳情及輸入特徵、確保介入開發公平性的過程、外部驗證過程、模型表現的量化指標、介入實施和使用的持續維護、更新和持續驗證或公平性評估計劃,這對接國際,讓產品不只在台灣可以走向國際。
可解釋部分,從電腦、醫師角度完全不同,案例要預測猝死,病人明明好的,AI應該要告知是依什麼判斷,例如病人血壓從6小時前開始下降,所以知道病人有潛在的問題,如敗血症導致未來可能猝死,AI判斷出血壓出問題,就可以先從血壓處理等。
三、AI生命週期管理,6至12月驗證一次,用嚴格標準驗證,但後面就會慢慢不準,因為資料會隨時間改變,像是人群老化的改變、治療的改變,慢慢資料就舊了,如自駕車出場看的懂舊金山的市容,但舊金山會有新的建築、地標,後來也會看不懂,醫療也是一樣。

全台推動成果上,有10家負責任AI執行中心示範醫院,至少10項導入負責任AI落地應用,229086次導入負責任AI落地應用使用人次,30個管理辦法、10個組織章程,建立1個負責任AI中心官網集合平台,建立可複製模式。
衛福部政務次長呂建德表示,這是健康台灣非常重要的一個里程碑,台灣現在有一個非常強的半導體,另一方面台灣有非常強的健保系統,這兩個部分如果能夠結合起來的話,對於整體民眾未來在臨床準確性會大大提高,AI是一個非常強大的工具,但有兩個重要問題要克服,第一個是倫理議題,第二個是治理議題,雖然現在大數據收集起來了,但在外推運用要克服包含不透明、決策偏差等問題。
呂建德讚揚,負責任AI中心的成立,在衛福部資訊處技監兼處長李建璋努力下,過去半年已結合了10家醫院邁出第一步,是除了美國跟歐盟之外,亞洲第一個負責任AI,透過整個中心建立,未來台灣這部分一定會更加速;多家醫院遭駭客入侵如何因應?呂建德強調,資訊處已經提出很多指引,會輔導廠商盡快落實。