機器人不只有三定律,人工智慧引發了九大問題

作者 | 發布日期 2016 年 11 月 02 日 16:38 | 分類 人工智慧 , 機器人 , 物聯網
shutterstock

隨著人工智慧越來越強大,智能機械正改善我們的生活,然而不僅是技術的快速發展,人類的想像早已延伸至更遠之處,著名科幻小說家以撒.艾西莫夫(Isaac Asimov)早在 1942 年就針對機器人技術的發展提出了三大定律,以探討未來人類對人工智慧(AI,Artificial Intelligence)的應用以及所面對的倫理道德問題。如今隨著想像越來越逼近現實,人工智慧所引發的問題已不止如此而已。




失業與貧富差距

機器人技術的發展,首要面對的問題其實早已被廣泛認知,就算不是科學家或是哲學家,現代民眾也能清楚的理解此一問題必然會發生,那就是—失業。勞動的層次與自動化的程度有關,在自動化作業之下,人類會逐漸轉往負責更複雜的戰略及認知活動。例如卡車司機,目前有數千萬人在從事這樣的工作,但如果正如特斯拉(Tesla)所承諾,未來十年內自動駕駛車輛將會被廣泛使用,那麼這些人將會如何?但從另外一個角度來看,自駕車的普及將會大幅減少交通事故傷亡率,那麼自駕技術的應用就變成了一個道德的選擇,人命或者是失業?

或許有一天我們回頭看看現在的經濟型態會認為,讓人類出售自己的時間僅為了活下去是一種很野蠻的行為。目前人類的工資大部分仰賴於時薪,然而通過使用人工智慧將大幅減少所需的勞動力,這也意味著失業,但除了失業以外,還有另一個問題,機器人的勞動所得該由誰分享?在現今自動化還沒有真的那麼普及時,貧富差距就已經非常的大,當機器人取代人類勞工之後,相信貧富差距將會更加嚴重,該如何建立一個公平的經濟社會就是第二個問題。

互動、錯誤及偏見

人工智慧引發的另一個層面問題出自於人類的社會性。在 2015 年,一架機器人名為 Eugene Goostman 成功通過了圖靈測試(Turing Test)。在這個測試中,測試人員必須分別跟真人與機器人對話,若機器人能成功瞞騙過測試人員,讓他們誤以為是真人便成功了,而 Eugene Goostman 則成功的欺騙了一半以上的測試員。這是一個時代的里程碑,機器人可以開始與人類互動並建立關係,甚至比人類更有效率去維持人際關係,因為其注意力並沒有限制,人工智慧未來將成為人際關係中不可或缺的一部分,該如何與機器互動這是人類必須面臨的問題。

機器人在未來是如此重要,但實際上就算再怎麼高效仍然會存在盲點,有可能會被有心人士愚弄甚至是利用,如何讓機器能夠發揮其應有的功能,而不是遭受或引發不必要的破壞便是重要的問題。例如機器其實並沒有想像中的那麼中立,因為人工智慧也是通過學習而建立起來的,所以人類一樣能夠帶給機器偏見並使其產生錯誤的判斷,例如 Google 曾發展一項技術,將影像識別用於預測未來罪犯時,卻發現其擁有對於黑人的偏見,這就是一個嚴重的問題。

安全、威脅和控制

人工智慧產生了錯誤與偏見時,可能會對人類造成安全上的威脅,如同電影一般。所以接下來的三個問題是有關於如何維持人工智慧的資訊安全,以及若人工智慧得出具有威脅人類安全的偏見時,該如何應對?又如何能保證能繼續控制這些機器人?或許在技術上可以設計讓人工智慧無法直接去威脅人類安全,如同機器人三定律,但儘管如此,這些科幻情節發生的機率仍比想像中還高,例如當人工智慧在思考如何消滅癌症時,經過大量的計算後它可能會得到這樣的結論—盡可能減少地球人口。這可能真的是最有效的方法,但沒有人會期待。雖然聽起來像是一個玩笑,但如果未來人類真的必須仰賴機器人來維持社會的運作,那麼這個玩笑就一點也不好笑。在《機械公敵》(I,Robot)電影中,儘管出於善意,但機器人的確還是殺人了。

機器人權

經過神經科學家努力的研究後,令機器人也能擁有好惡的基本機制,就像人類對動物的訓練一樣,雖然目前的技術還不夠成熟,但正變得更加複雜,也使機器人更加栩栩如生,成為感知和行為的實體。當這項技術更加的先進以至於機器人也擁有情緒之後,人類是否應該要去考慮其感受,機器人是否也應受到法律的保障,擁有機器人的基本人權?

無庸置疑的,發展高度先進的人工智慧將會有很大的風險,也會遇到很多的問題,但也必須要記得,這將會是使人類社會能夠繼續前進的動力,讓生活更加美好的途徑。人工智慧的潛力與威脅,其實一直都取決於人類自己。

(首圖來源:shutterstock)

延伸閱讀:

發表迴響