超越「機器人三定律」?英國標準協會制定機器人道德標準

作者 | 發布日期 2016 年 09 月 21 日 7:45 | 分類 人工智慧 , 機器人 , 自動化 follow us in feedly
下載自路透
A man shakes hands with a humanoid robot during the International Conference on Humanoid Robots in Madrid November 19, 2014.  REUTERS/Andrea Comas (SPAIN - Tags: SCIENCE TECHNOLOGY) - RTR4ER01

科幻作家艾西莫夫曾提出了「機器人三定律」。如今,隨著機器人以及智慧裝置不斷增多,簡單的定律可能無法滿足需求了。最近,英國標準協會(BSI)編寫了一份文件(編號 BS8611),以幫助設計師們創造出更有道德感的機器人。



衛報的報導,在牛津大學召開的 Social Robotis and AI(社群機器人和人工智慧)大會上,相關領域的專家談到了這份文件,並發表了自己的看法。

西英格蘭大學的機器人學教授 Alan Winfield 認為,這份文件代表了「把道德價值融入機器人和人工智慧的第一步」。「據我所知,這是首個關於機器人道德設計標準的正規文件,」他說,「它比艾西莫夫的定律要更加複雜。基本上,它講述的是如何對機器人做道德風險的評估。」

這份文件定義了一些寬泛的道德準則,比如機器人的設計不應該以殺害或者傷害人類為唯一或首要目的;責任人應該是人類而非機器人;任何機器人都應該有負責人,而這個人應該為機器人的行為負責。此外,文件還提到了一些有爭議的話題,例如人類是否應該與機器人建立感情聯繫,特別是那些與兒童或老人互動的機器人。

文件還建議設計師遵循透明化的原則。不過,這可能難以實現。「人工智慧系統,特別是深度學習系統的問題在於,你很難了解它們做決策的原因,」Alan Winfield 說,「在訓練過程中,深度系統使用了網路上的大量數據,但是這些數據是有偏見的。這些系統傾向於關注中年白種人,顯然這是一場災難。它們可能會吸收人類的所有偏見,或者說,這是一種潛在的風險。」

一些寬泛的社會問題也出現在文件中,比如「對機器人的過度依賴」。不過,在如何避免這些問題上,文件並未給設計者指出明確的方向。「你與機器人共處一段時間後,它一直給予你正確答案,於是,你開始信任它並且變懶了。然後,它給了你超級愚蠢的建議,」雪菲爾大學機器人和人工智慧教授 Noel Sharkey 說。

英國標準協會的 Dan Palmer 也評論了這份文件。他說,「透過機器人和自動化技術,生產過程會更有效率、更靈活和更具適應性,這也是製造業發展的必要階段。因此,我們有必要辨識和處理一些道德問題,比如對機器人的過度依賴。這份新指導告訴人們如何處理不同的機器人應用,進而幫助機器人和自動化系統的設計師與用戶更好地適應新的工作領域。」

(本文由 愛范兒 授權轉載;首圖來源:達志影像) 

發表迴響