AI 竟會種族歧視!清大攜手跨國團隊揭露「醫學倫理隱憂」

作者 | 發布日期 2022 年 06 月 09 日 11:48 | 分類 AI 人工智慧 , 生物科技 , 科技教育 line share follow us in feedly line share
AI 竟會種族歧視!清大攜手跨國團隊揭露「醫學倫理隱憂」


AI 人工智慧竟會種族歧視?清華大學資工系助理教授郭柏志與麻省理工學院、哈佛大學跨國研究發現,當採用先進的 AI 深度學習演算法來判讀 X 光片及電腦斷層掃描時,電腦竟會從醫學影像分辨出患者是黑人、白人或亞洲人,並影響判斷的準確率,但科學家至今還不明白 AI 是如何辦到。

郭柏志表示,醫界近年大量引進人工智慧,研發醫療機器人、智慧診療及醫學影像識別技術等,協助醫生更快速、準確地診斷,這本該是造福病患的好事,但這項研究揭露其中的隱憂,提醒醫界應該注意醫療倫理問題,並消弭引進人工智慧產生的醫療不平等現象。

跨國研究團隊橫跨 4 國,包括史丹佛大學、多倫多大學與美國國家衛生院,分析超過 20 萬位病患的胸部、頸椎、手部 X 光及胸部電腦斷層掃描,揭露人工智慧也有歧視問題的驚人真相,這項研究成果最近登上國際頂尖期刊《刺胳針數位健康》。

美國食品藥物管理局(FDA)目前已核准醫院採用人工智慧輔助判讀 X 光片及電腦斷層掃描等醫學影像,人工智慧的深度學習系統可幫助電腦針對大量資料自我訓練,並發展出辨識模型,研究團隊發現,人類放射師無法從 X 光片判斷出患者的種族,但 AI 卻能輕易達成,而且準確率高達 9 成。

研究團隊中一名哈佛大學教授表示,當團隊成員稱 AI 可以從 X 光片來判斷人種,自己簡直不敢置信,認為這真的太瘋狂,一定是哪裡出錯,但當越來越多的證據浮現,有團隊成員則直言感覺很「恐怖」。

郭柏志表示,團隊本來猜想 AI 可能是從骨質密度來判斷人種,因黑人的骨質密度高於白人,但後來發現並非如此,以某張手掌的 X 光片,顯示 AI 判讀人種的重點聚焦在中指與食指的第三指節,團隊裡也有二、三十年經驗的放射科醫師,但實在想不出來 AI 是怎麼判讀出人種。

令研究團隊憂心的是人工智慧的種族歧視,甚至可能影響醫學影像判讀的準確率,郭柏志表示,研究發現白人的醫學影像有問題,卻沒被檢查出來的誤判率是 17%,但黑人的誤判率卻高達 28%,相差超過 10 個百分點,而醫學影像的誤判也會進一步影響急診、醫療給付等資源分配。

郭柏志強調,原本以為人類才會歧視,電腦應該是最公平的,但沒想到電腦也默默地提取人類沒教的資訊,包括人種及性別等,因此如何去除歧視,讓各族群的醫學影像判讀都有一致的準確率,成為團隊下一階段要努力的目標。

(首圖來源:清華大學)