人工智慧新發展,可向人類解釋思考過程

作者 | 發布日期 2018 年 09 月 16 日 0:00 | 分類 AI 人工智慧 follow us in feedly

有效的人工智慧運算固然高效率,不過對我們而言,很難理解到底它們是怎樣做決定。MIT 最近的研究,讓人工智慧用人類可以理解的方式,描述運算思考過程,使大眾對人工智慧系統有更多信任。



最近由 MIT 林肯實驗室情報和決策技術小組發表的學術報告《設計透明度:縮小視覺推理中效能與可解釋性之間的差距》(Transparency by Design: Closing the Gap Between Performance and Interpretability in Visual Reasoning),研究人員描述一視覺分析系統,可像人類解釋計算出答案的推理步驟,運算過程更透明。神經網路 TbD-net 透過熱力圖進行視覺分析,分析人類語言的問題後,拆分為不同的分析工作。當它分析一張照片,會在有特徵的部分加上顏色標記,代表哪部分有模組輸出進行特定工作,集合各區域的運算結果,組合成最終的答案。

系統雖然提供人類可理解的運算過程顯示,效能仍然相當優異。研究輸入 85,000 張圖像和 850,000 條問題之後,TbD-net 的準確度達 98.7%,比其他神經網路運算方式更佳。

透過讓運算過程變透明,研究人員相信可讓大眾更信任系統,避免人工智慧給人黑箱作業感,特別在軍事和政府監控相關系統更重要。IBM Research AI 部門主管 Aleksandra Mojsilovic 表示,大型人工智慧系統有龐大的潛力改變我們的生活,因此透明度問題一定要先解決,才可讓人類信任。

(本文由 Unwire Pro 授權轉載;首圖來源:MIT News

關鍵字: , ,