從人工智慧電影談人工智慧的未來

作者 | 發布日期 2017 年 11 月 06 日 15:30 | 分類 AI 人工智慧 , 機器人 , 電子娛樂 follow us in feedly

最近讓人工智慧受到矚目,背後的技術是深度學習,這是一種模擬人類神經系統的產生模型做法,而這樣的系統可以透過夠多的學習樣本,將整個系統模型的邏輯能力達到非常強的機制。



比起過去程式設計師可掌握程式所有過程與參數,在深度學習技術中,人類對整個學習過程的掌握非常有限,而且在大量資料學習後整個模型建立後執行又產生了很棒的效果,尤其這類學習是可以在電腦的虛擬世界中進行(比如 AlphaGo 進化成 Master 時是透過兩台 AlphaGo 在虛擬世界對弈),速度其實比在現實世界中快非常多,加上機器人不必休息,學習時間比人類還長,可以想見,透過深度學習,人工智慧未來的進化會非常快,甚至有超越人類智力的「奇點」會在 2045 年來臨的預言出現。

人類對機器人一直有很高的期待與想像,而這樣的期待和想像表現在小說與電影中,如 1978 年開始的《星際大戰》系列電影,1982 年的《銀翼殺手》、2001 年史蒂芬‧史匹伯導演的《A.I.人工智慧》、2004 年威爾‧史密斯主演的《機械公敵》、迪士尼集團的卡通《大英雄天團》、《瓦力》等。

談到機器人電影,就不得不提到科幻小說家以撒‧艾西莫夫(Isaac Asimov)1942 年的《我‧機器人》小說中的短篇〈轉圈圈〉(Runaround)首次提出機器人三大定律:1. 機器人不得傷害人類,或因不作為(袖手旁觀)使人類受到傷害;2. 除非違背第一法則,機器人必須服從人類的命令;3. 在不違背第一及第二法則下,機器人必須保護自己。這三大定律後來變成他個人的機器人小說與很多其他小說作者所遵循的準則,而在很多電影中,都看得到三大定律的影子,成了電影中人工智慧邏輯的出發點。這三大定律,到最近也被熱烈討論,是否要直接成為未來機器人必須遵守的準則,甚至連微軟 CEO 納德拉都仿效他提出「人工智慧安全六大守則」。

接下來讓我們談談電影中的人工智慧,在《星際大戰》系列 1~6 集電影,男主角身邊的好幫手,兩個自主具人工智慧的機器人,C-3PO 及 R2D2 一直以主角的命令行事,C-3PO 是語言機器人,會多國語言,跟現在的 Chat Robot 一樣會跟主人對話;R2D2 是協助主角駕駛的機器人,有點像我們智慧家庭控制家電的機器人(例如 Amazon 的 Alexa),但是它不會說人話,華碩做的機器人就比較像這兩個機器人的合體,既會講話,又能夠控制家中電器。

《銀翼殺手》電影改編自菲利普‧迪克的小說《複製人會夢到電子羊嗎?》(圓神出版事業機構的寂寞出版社最近改名為《銀翼殺手》在台出版),電影版(非後來熟知改成複製人的錄影帶版)跟原著提到人造人的頭腦是電腦,運行人工智慧,而其中提到的如何辨識人工智慧跟一般人的方式是利用「共感測試」:人類可以通過這個測試,但是人工智慧不能。不管具備人工智慧的人造人怎麼學習,因為沒有情感,只有邏輯,就沒辦法通過這個測試,雖然他們很會模仿人類。《銀翼殺手》原著小說就說到,人造人是拚命學習人類,但是人類會有同情心,人造人面對自己的人造人夥伴被除役(就是被毀滅),只會冷眼旁觀,這跟現在的人工智慧是基於邏輯行動,除非邏輯有設定要解救同伴,他們是不會動作的。不過《銀翼殺手》的設定並沒有讓人造人遵守機器人三大定律,所以人造人可以傷害人。

《A.I.人工智慧》中,描述人造主角機器人外表跟人一樣,而被人設定後就會忠於設定自己的主人(故事中是媽媽),結果主角機器人雖然後來被媽媽拋棄,即使一路面臨艱辛,經過很久時間後,人類都滅亡了,外星人找到它,都還是思念著自己的媽媽,而且這部電影中的機器,都有遵從機器人三大定律,不過主角機器人被拋棄,卻是因為它的不知分寸(沒學習到),差點傷害媽媽真正的小孩,為了安全理由,只好選擇拋棄。

《機械公敵》電影本身就取材自以撒‧艾西莫夫的小說,探討了機器人三大定律的邏輯的矛盾,讓主導叛變的人工智慧大腦認為要傷害部分人類,才能保護大部分人類,而且為了保護人類,就要限制人類的自由,於是發動叛變。

《大英雄天團》卡通電影中,機器人杯麵一開始被設定是要保護主角,且不能傷害人類,但主角為了報殺害哥哥的仇,把它改裝成戰鬥機器人,開始違反三大定律中的第一定律:主人的設定是要它傷人,它就可以傷人。而最後杯麵為了讓主人逃出異空間,只好自己留在異空間,把自己當作作用力的跳板,送出主人,但是把自己的記憶存在磁碟片交給主人,這符合三大定律的第三定律,另一種保護自己的模式。

電影中常常會認為人工智慧也可以有類似出自感情的動作:例如在卡通電影《瓦力》中,在地球上尋找和污染後是否有生命跡象的伊芙,遇到被命令一直守在污染後沒有人類的地球的瓦力,展開了這場故事,其中伊芙所在的太空船上的領航機器人,因為被設定命令是不得返回地球,所以全力阻止返回地球的動作,而瓦力為了伊芙,寧願讓自己被壓壞,這段就涉及到瓦力本身的設定,為何會想要拯救伊芙?而伊芙發現瓦力為了自己被壓壞,就急忙找出瓦力的零件,讓瓦力能夠在更換後復活,還有其中的其他機器人決定協助瓦力、伊芙及決定回地球的人們,違反領航機器人的指令,這又是基於什麼樣的邏輯設定呢?這些牽扯到這些人工智慧的邏輯開端設計,這可能包含認定為同伴的基準,以及必須協助同伴的邏輯(類似人類的道德?)但是以現在的人工智慧的發展,絕對不會像人類因為有化學變化對應的情感,而做出這類的事情。

由以上電影的例子可知,因為人工智慧的現有技術是依據邏輯,而且學習的速度與執行的效率勝過人類,所以可以在單純操作性與邏輯的工作上勝過人類,機器人將成為人類的好幫手。當然未來也將有可能在壞人下令驅動下、壞駭客駭入系統下令,或是本身邏輯矛盾中,發動傷害人類的戰爭,不過只要機器人背後的系統很多樣,加上足夠的安全機制,像漫威的復仇者聯盟相關電影中天網可以駭進所有系統,危害全世界的機率就很低,而且有惡勢力,相信會有正義的力量相抗衡。而霍金、馬斯克力推 23 條人工智慧原則,與微軟 CEO 推的「人工智慧安全六大守則」,也代表人類已經意識到人工智慧發展下未來可能引起的危險,從邏輯起點直接設定限制,讓日後的邏輯發展不至於到無法控制。只是機器人強的只在邏輯,不像人有直覺、自由聯想跟豐富的情感力,人類接下來的職業相信將往這些方向發展,而需強大邏輯力和單純操作的部分,就留給機器人助手吧!

(首圖來源:shutterstock)