專家示警,5 年內 AI 恐淪駭客利器

作者 | 發布日期 2018 年 02 月 21 日 14:30 | 分類 AI 人工智慧 , 科技政策 , 資訊安全 follow us in feedly

一份新研究警告,突飛猛進的人工智慧將帶來風險,因惡意人士很快就能利用這項科技展開自動駭客攻擊,讓無人自駕車車禍、將商用無人機變成武器、散播幾可亂真抹黑文宣。



路透社報導,劍橋、牛津、耶魯大學的技術與公共安全研究人員,連同隱私與軍事專家共 25 人撰寫的這份研究今天對外發布,對流氓國家、罪犯與孤狼攻擊者潛在濫用人工智慧(AI)一事提出警告。

研究人員指出,惡意使用 AI 對數位、人身與政治安全構成迫切威脅,因為這能進行大規模、精準、高效的攻擊。這份研究側重於 5 年內就有可能發展出的狀況進行分析。

這份 98 頁的研究警告,用 AI 攻擊完成任務所需成本,可能低於其他需靠人力與專門技術進行的任務。報告提出一系列建議,包括應將 AI 規範為軍用/商用的兩用科技。

英國廣播公司(BBC)報導,劍橋大學「存在風險研究中心」(Centre for the Study of Existential Risk)專家艾維(Shahar Avin)勾勒出 AI 在不久將來「變壞」,甚至眼見不為憑的景況:

駭客會利用像 AlphaGo 這樣的科技,在數據中找出模式或密碼裡的新漏洞;惡意者買無人機並裝入臉部辨識軟體後,鎖定特定人士攻擊;機器人會自動假造出逼真影片,供政治抹黑;駭客會將談話合成,以為冒充。

「存在風險研究中心」執行主任歐海格提格(SeánÓ hÉigeartaigh)是這份報告的共同撰寫人之一,他表示:「人工智慧是遊戲改變者,這份報告已描繪出未來 5 到 10 年,世界會變成什麼樣子。」

歐海格提格說:「我們身在一個 AI 濫用恐淪日復一日破壞的世界,我們必須面對問題,因為這些風險是真的。我們現在就必須做出選擇,我們的報告就是呼籲全球各政府、機構與人士行動。」

(譯者:陳亦偉;首圖來源:shutterstock)