AI 教父世紀辯論:科技公司要求監管人工智慧,背後圖利了誰?

作者 | 發布日期 2023 年 11 月 11 日 10:00 | 分類 AI 人工智慧 , 數位內容 , 社群 line share follow us in feedly line share
AI 教父世紀辯論:科技公司要求監管人工智慧,背後圖利了誰?


拿下圖靈獎的 AI 教父們,辛頓、班吉歐、與 Meta 副總暨首席 AI 科學家楊立昆,和日前訪台的吳恩達,10 月 30 日開始在舊名 Twitter 的 X 上展開世紀辯論。他們爭論的題目是,科技公司要求 AI 監管,到底圖利誰?有人直指,許多大企業假監管之名,是想先設下競爭對手的圍籬。也有人嘲笑,有人熱愛用算命仙末日預言驚嚇世人,其實沒人知道 AI 如何滅絕人類。癥結在哪?誰是誰非?請見本文詳解。

自馬斯克4月聯合千人連署要求暫停開發升級GPT-4後,至今全球各方AI教父和大神,對於人工智慧的風險,以及是否應該監管,始終沒有共識。剛訪台不久的吳恩達(Andrew Ng),10月30日接受澳洲財金評論(The Australian Financial Review)專訪時,替這場論戰激起最新一輪火花。立場和他大不同的辛頓(Geoffrey Hinton),聽了也立即在舊名Twitter上的X展開兇猛回應,有引來世紀大辯論的跡象。

到底這些人工智慧專家,立場如何不同?簡單來說,可以分為反對監管派與支持監管派兩陣營。

  • 反對AI監管派:以Coursera創辦人吳恩達和Meta首席科學家楊立昆為首,他們認為人工智慧風險被過度誇大、政府應該監管產品而非研發,甚至指控科技公司呼籲監管是想限制競爭。
  • 支持AI監管派:有得過圖靈獎的人工智慧三位教父中的兩位,班吉歐(Yoshua Bengio)和辛頓,還有OpenAI的執行長奧特曼(Sam Altman)、開發Claude的Anthropic共同創辦人雅茉德(Dario Amodei, Daniela Amodei)兄妹,還有DeepMind共同創辦人哈薩比斯(Demis Hassabis),他們認為人工智慧將會通往超級智慧(super intelligence),有機會取代人類,因此有必要監管AI系統發展、規範科技企業。

梳理雙方論點,其實對立陣營中,相似的想法遠多於相異。例如兩邊都肯定AI帶來的進步效益,也同樣承認AI有潛力對社會造成危害;分歧主要體現於風險規模、政府監管效率、科技巨頭的權力與競爭,以及最根本的「技術究竟是否中立」。

吳恩達、楊立昆:大企業只是為了把持AI發展,假意談監管

吳恩達強調,完全支持納管人工智慧,例如思考自駕車的責任、自動交易演算法對市場的影響等,都是重要議題。然而,看到AI研發領跑的企業也在呼籲監管,讓他開始懷疑,這些頂尖企業是不是打算仰賴政府介入,扼殺創新,甚至是減少競爭?

「山姆(Sam Altman)是我在史丹佛的學生,他也和我一起實習。我不想特別談他,因為我無法知道他在想什麼。但是……我覺得有很多大公司發現,如果不用跟開源大語言模型競爭,會是很棒的一件事。」

吳恩達(見下圖)說,有其他產業因為管制導致效率降低,公益反而降低,他不希望科技與AI產業也淪為「管制俘虜」(regulatory capture)。「我不認為毫無管制是正確的,但現在看到各國管制的發展方向,我認為不管制會比現在更好。」在吳恩達創辦的新創教育公司DeepLearning.AI所發電子報中,他更完整的提出一套論述。

(Source:TechCrunch, CC BY 2.0, via Wikimedia Commons)

吳恩達認為,呼籲政府管制者認為,人工智慧替人類帶來滅絕風險(extinction risk)或者存在風險(existential risk),確實有些人真心相信此論點,但他覺得有些人提出此論述只是為了私利,例如想要四處演講的名人、為了募集資金的非營利組織,還有籌措競選捐款的議員們,以及企圖降低競爭的科技公司們。

和吳恩達站在相同立場的楊立昆,見到英國近期舉辦人工智慧安全高峰會,討論AI對人類存在的風險,先是譏諷英國首相罹患「人工智慧幻想症」(AI Delusion disease),接著點名奧特曼等人,痛批他們遊說政府監管,其實是為了把持AI模型。

楊立昆擔心,監管只會扼殺開源的AI開發,只有私有且封閉的企業握有最先進的AI系統,未來全人類將會活在被美國西海岸和中國少數企業控制AI平台的世界裡,結果是比起Facebook社群時代更深度的剝削。因此,開放、透明、低門檻讓更多人取用的AI系統和軟體平台,才是對抗AI惡意用途的良方。

辛頓:開源AI叫正義,那何不開源核子武器?

針對反監管派的說法,辛頓很快在Twitter上回應,他說自己離開Google,就是為了自由地表達人工智慧對人類帶來的威脅。另外,他也補充,科技公司之所以歡迎政府監管,是因為當企業遵守政府規定,就能夠降低未善盡法律要求所要負的責任,例如在政府制定規範以前,自駕車開發者沒有規定可以遵循,若是出了車禍,很難釐清責任歸屬。

辛頓對人工智慧的擔憂有些很實際,例如讓人類失業,或者是AI驅動假新聞、有偏見的演算法傷害求職者,還有執法單位與戰爭中對技術的濫用;有些擔憂則更巨大:當人工智慧擁有意識後,將會逃脫系統控制,甚至影響人類生存。他也發推回應楊立昆「開源AI模型就是解方」的論點,表示「那我們何不開源核子武器呢?」

與辛頓的說法相呼應,班吉歐投書媒體,表示他同樣擔憂日常生活中可見的AI危害。儘管現在AI距離取代人們還有一段距離,但「想到人工智慧的風險,讓我夜不能寐。」班吉歐認為,AI掌握語言、擁有知識,已經可以熟練(但不可靠的)與人對話、創作內容,若繼續以驚人速度進步,終將會變得危險,甚至超越人類。

班吉歐:沒人知道人工智慧的風險

看到立場相異的老友發言,班吉歐表示,「楊立昆和其他人說(AI)不是問題,但他們其實不知道──事實上,根本沒有人知道。」

沒有人會懷疑AI教父對於人工智慧發展潛力的判斷,但他們的想法仍出現巨大的分歧:以最根本的、對AI風險的判斷來說,楊立昆認為AI風險論者,根本沒辦法論述AI如何滅絕人類,辛頓和班吉歐則是以末日預言式的說法,反批AI無風險論者無法證明風險不會成真。

其他包括政府監管有沒有效率,還有科技企業開源模型是否就能避免壟斷,以及AI自己是否就是AI惡用的解方,雙方都持有完全不同想法。這樣的論戰,恐怕只會繼續下去。

(本文由 遠見雜誌 授權轉載;首圖來源:Unsplash

延伸閱讀: