AI 也會抄捷徑,醫學研究發現深度學習演算法缺陷

作者 | 發布日期 2021 年 07 月 27 日 19:37 | 分類 AI 人工智慧 , 尖端科技 , 機器人 Telegram share ! follow us in feedly


人工智慧在現今癌症治療上,具有相當大的幫助,透過深度學習,系統可以快速分析腫瘤切片影像,提供醫生有關癌症類型和治療建議等重要資訊,但美國芝加哥大學研究團隊發現,如果深度學習演算法沒有適當調整,AI 會做出偏頗的病理分析。

芝加哥大學(University of Chicago)研究團隊,在本月的《自然-通訊》(Nature Communication)期刊中發表研究指出,透過醫療影像學習的過程中,若沒有對演算法進行特別校正,AI 就會以資料上傳的地區、醫學機構等資訊自行歸類,並使用歸類資料進行比對分析,產生病理資訊和治療建議,但以這種方式而不是透過比較嚴謹的生理和病史資訊進行分析, AI 容易產生偏頗或不正確的分析和治療建議。

研究團隊在實驗中,讓 AI 系統透過美國國家癌症研究所(National Cancer Institute, NCI)與國家人類基因組研究所(National Human Genome Research Institute, NHGRI),共同合作的「癌症基因組圖譜(The Cancer Genome Atlas, TCGA)」資料庫內,大量的癌症組織切片影像進行深度學習,發現了 AI 這種透過演算法習性,產生偏頗判斷的問題。

▲主導研究團隊的芝加哥大學醫學系 Alexander Pearson 博士。(Source:University of Chicago

「我們在這項研究中發現了 AI 的盲點,由於需要快速分析,因此演算法會合理的認為使用機構和區域分類,可以更有效歸類檔案,提高學習分析的效率。」芝加哥大學醫學系 Alexander Pearson 博士指出,但 AI 用這種歸類方式學習大量影像後,卻會開始忽略病患個人的生理數據和病史資料,改以上傳機構和地區之間的影像互相比對。

如此一來,醫療軟硬體條件較好,或比較富裕區域內的病患切片樣本,由於通常有比較多治療選項,治癒機率也較高,因此 AI 容易對這些區域的樣本提出比較樂觀的病理分析和治療方式,但是對於條件較差的機構或區域,產生的分析與建議就會比較差,等於將社會醫療資源的不平等反射出來。

AI 在面對大量資料時也會嘗試簡化歸類程序,產生盲點。(Source:BDAN

研究團隊也表示,要避免出現這種盲點,系統開發者在訓練 AI 學習時,必須確保各種類型的腫瘤切片影像,是平均來自各個地區與機構上傳的資料,或是在學習過程出現判斷偏頗時,將影像樣本鎖定在一個特定條件,避免 AI 自行產生歸類和比對分析的習慣,才能產生比較準確的分析結果。

要如何避免 AI 出現「偷吃步」的情形,對於現代醫學越來越仰賴 AI 進行分析的狀況下,顯得格外重要,若是因為 AI 產生不準確的病理分析,導致醫生判斷失準,原本用來幫助人類健康的科技反而會成為病患生命的一大威脅。

(首圖來源:Pixabay