聽你說話,機器透過演算法分析就能檢測憂鬱症

作者 | 發布日期 2016 年 07 月 16 日 12:00 | 分類 人工智慧 , 醫療科技 follow us in feedly
雷鋒網配圖

憂鬱症越來越變成一個常見詞,很多普通人心情不好時就稱自己得了憂鬱症。不過即便對醫生來說,診斷也不是件容易的事。而南加州大學研究人員開發出的機器學習工具,或許能讓診斷變得更容易也客觀。



這個工具名為 SimSensei,它會在訪談中記錄患者的聲音,檢測出母音表達是否減少,因為這是心理及神經紊亂中的常見特徵,但對人類來說很難察覺。這種方法雖然不能取代人類診斷,但也提供了一個客觀標準。

憂鬱症誤診是一個很大的問題,2009 年一個綜述研究發現,5 萬名患者中僅一半被正確做出診斷,誤報與漏報比更是達到 3:1。原因有二:一是誤診比沒有診斷更安全,二是確定無疑地排除任何診斷的可能性都需要更多專業知識。

對憂鬱症來說,它又是一種異質性疾病,病因多樣,表現形式也不同。再加上醫生一週可能要見數百名狀況不一、描述也不一的患者,那誤診可以說是情有可原了,這也是為什麼 SimSensei 這樣的工具能發揮更大作用。

之前的調查發現,憂鬱症症患者的情感更平淡消極,語音變化會減少,音量和單調更單調,說話也會減少,而且吐字不清,停頓變長。另外,憂鬱症症患者的聲道和聲帶更緊張。機器學習很適合解決這類問題,能從噪音資料中進行預測,而且語音分析也是這一領域的重要話題。

原理很簡單,將患者的語音處理成隻剩母音,然後分析母音 a、i、u 的第一和第二共振峰(譜峰)。最後就是使用 k-means 演算法進行處理,這一演算法也挺老了,出現於 1967 年,原理是圍繞一定的平均值將資料集分為不同的類。

聚類的結果是一個三角圖,各角分別代表母音的譜峰。三角內的區域代表了母音空間,將它與一個用作對比的標準母音空間進行對比,所得的比例就能用於抑鬱診斷。

SimSensei 的效果也得到了證明,而且結果表明,在語音資料有限的情況下效果也不錯,這表明它具備了一定的實用性。

(本文由 雷鋒網 授權轉載) 

發表迴響