當前 AI 臨床筆記(clinical note)或 AI 轉錄工具已經十分普遍而成熟,已經成為許多醫療院所及醫療人員用來自動記錄問診時醫病對話的重要工具。但 ABC News 在週六(10/26)的一篇報導中引述研究人員表示,以 OpenAI Whisper 成為背後技術的 AI 轉錄工具的表現並非總是穩定,有時還會產生「幻覺」(hallucination)並生成完全捏造的內容。
Nabla 是一家 AI 臨床筆記方案商,該公司 AI 工具便是基於 OpenAI Whisper 語音轉文字(Speech-to-text)模型開發的。根據 ABC News 報導,該工具已經轉錄了約 700 萬次醫療對話,超過 30,000 名醫療人員和 40 個醫療系統正在使用這項技術。但報導中也指出,Nabla 知道 Whisper 有產生幻覺的可能性,並表示正在「解決這個問題」。
由美國康乃爾大學、華盛頓大學等學校研究人員共同發表的一份研究論文發現,Whisper 在大約 1% 的轉錄中會出現幻覺,有時甚至會在錄音檔的無聲片段中添增帶有激烈情緒或無意義片語的句子。
其中一位名叫 Allison Koenecke 的康乃大學研究人員在一則推文中指出,研究人員發現,Whisper 的「幻覺」有時還包括虛構的醫療狀況,或類似「謝謝觀看!」之類的句子,這不禁讓人聯想到 YouTube 影片中常見的語氣。
這項研究於 6 月在巴西舉行的電腦協會(ACM)FAccT(fairness, accountability, and transparency,公平性、問責性與透明度)大會上發表,目前尚不清楚該論文是否已經通過同儕審查。
(首圖來源:Nabla)