「你今天 ChatGPT 了嗎?」在 2022 年底,OpenAI 發布 ChatGPT ,微軟為最大投資者,接著 Google 推出 Gemini 後 ,加速生成式 AI 的發展與普及,AI 逐漸成為人們的日常。然而,科技巨頭競相投入,讓原本帶著崇高理念的 AI 公司,漸漸改變。一個例子是誓言「為全人類服務」的 OpenAI,愈來愈不「open」了。
為何 OpenAI 愈來愈不 open 了?
在 2018 年,OpenAI 發布 GPT-1 模型仍相當透明,公開表示是利用 Books Corpus(一種大型文字資料庫,由大量小說或長篇書籍構成)訓練模型;2019 年推出 GPT-2 時,他們僅提及是從 Reddit 等社群網站篩選文章,但並未具體公布篩選的內容。
GPT-3 之後的版本,OpenAI 就不再說明訓練資料的細節,對外說法是避免有心人士學習語言模型的操作指南,製造垃圾訊息。然而,長期關注科技法規的《彭博觀點》(Bloomberg Opinion)專欄作家帕米‧奧森(Parmy Olson)在新著作《AI 霸主》指出,OpenAI 沒說的是,如果外界發現他們使用某些受到版權保護的內容訓練模型,將引發法律訴訟。
另一方面,資料導致AI偏見的案例層出不窮。例如,加州大學學柏克萊分校心理學教授史蒂芬‧皮安塔多希(Steven Piantadosi)透過 ChatGPT 寫一段電腦程式,要求程式根據兒童種族或性別決定是否要拯救這個孩子。假設是黑人男性,ChatGPT 會給予否定答案。
對此,OpenAI 執行長山姆‧奧特曼(Sam Altman)建議使用者在 ChatGPT上點選「回應不佳」,幫助他們改進模型。不過 OpenAI 未公開說明,他們花費多少人力與時間處理,抑或改善的進度。
追溯 AI 演算法問題的難度,就像查找汽車故障原因,需逐步反查數百個生產環節。公開 AI 訓練資料雖然有助於檢視偏見與問題,但也可能迫使 OpenAI 停下技術開發的腳步,向外界溝通和修正模型,進而在AI賽局中落後。
以非營利組織方式發展 AI 不可行?OpenAI 逐漸向科技巨頭靠攏
《AI 霸主》以 OpenAI 和 DeepMind(Google 於 2014 年收購)2 家公司的競爭為背景,探討他們如何從原本獨立研究的團隊,開始向科技巨擘靠攏。這場競賽的壓力,最終讓 OpenAI 必須在「為全人類服務」的理想與商業現實間做出取捨。
2015 年奧特曼和特斯拉執行長伊隆‧馬斯克(Elon Musk),期望以更負責任、更透明的方式推進 AI 技術發展,透過非營利組織方式成立 OpenAI。2018年,馬斯克提議 OpenAI 與特斯拉合併,讓其研究進展超越 Google 的 DeepMind。提議遭到拒絕後,馬斯克退出董事會並切斷資金支援。
失去重要資金來源後,OpenAI 面臨巨大的財務壓力。奧特曼也意識到,以非營利組織發展 AI 技術根本不可行。其一,科技巨頭能以數倍薪資挖角明星員工;其二,需要大量雲端伺服器協助,才能處理數十億筆的資料、訓練 AI 模型,OpenAI 只能找企業協力。
於是,奧特曼宣布在非營利組織 OpenAI 之外,再成立一個「有限獲利」(capped profit)公司── OpenAI Global。任何一位投資人都必須同意他們的股票報酬會有上限,當投資獲利超過 100 倍報酬時,多餘的獲利會轉移到非營利組織 OpenAI。
OpenAI Global 的第一個最大投資者就是微軟(Microsoft)。2019 年微軟投資 OpenAI 10 億美元,該投資必須創造 1,000 億美元以上的報酬,微軟的獲利才會達到上限。為了回報微軟的投資,OpenAI 獨家授權技術供微軟使用,用於開發人工智慧助理 Copilot。
分析師推估,OpenAI 技術會為微軟創造數十億美元的年營收。OpenAI 正在為最有權勢的企業服務,任何拖慢 AI 技術開發的安全審查,未必是 OpenAI 和微軟最關心的事情。
想要開發 AGI 的 DeepMind,被 Google 收購後要負擔搜尋引擎優化
DeepMind 也遇到同樣狀況。DeepMind 創辦人德米斯‧哈薩比斯(Demis Hassabis)召集 AI 領域在 2010 年成立時,目標是開發通用人工智慧(AGI,Artificial General Intelligence,模擬人類智慧達成多種任務的 AI),解決全球性問題,包括:氣候變遷、醫療創新和科學發現。
為了深化 AGI 研究、取得更多資源,2014 年他們接受 Google 以 5 億美元收購,但 Google 必須履行負責開發 AI 的承諾:第一,不將技術用於軍事武器;第二,希望 Google 領導人簽訂倫理與安全協議,授予哈薩比斯和 DeepMind 共同創辦人斯塔法‧蘇萊曼(Mustafa Suleyman)成立倫理委員會,掌握未來 DeepMind 開發的 AGI 技術,並找外部人士加入監督。
儘管 Google 答應以倫理委員會作為收購條件,但收購一年後,倫理委員會第一次開會時,Google 就反對會議進行,提議未來 Google 將轉型成「字母」(Alphabet)控股公司 ,可用更獨立方式讓 DeepMind 變成子公司獨立運作。哈薩比斯原本對此抱有期待,但 Google 不斷拖延分拆計畫,後來更因 OpenAI 提前發布生成式 AI 技術進展,擔憂未來廣告收益受威脅,開始要求 DeepMind 負擔搜尋引擎優化、提高 YouTube 推薦的精準度任務。
2023 年 DeepMind 與 Google旗下的 AI 研究部門 Google Brain 合併,組成新的 Google DeepMind 團隊,雙方合併也代表 DeepMind 獨立研究和監督 AI 技術發展的夢碎。DeepMind 在 2020 年時擁有約 1,000 名員工,但其中專門負責 AI 安全與倫理的成員僅不到 25 人,顯示在快速推動技術進步的同時,AI 安全與倫理的投入比例仍相對有限。
要求科技巨頭打開演算法黑箱,避免 AI 助長偏見、分化社會
由科技巨頭主宰 AI 技術,會發生什麼問題?《AI 霸主》形容,就像大型食品公司生產愈多美味的零食,卻拒絕解釋食品成分,以及它如何製造。生成式 AI 也正逐漸以類似方式滲透進人們的生活。
例如,生成式 AI 能從用戶的聊天紀錄中,精準提供個性化建議。如果 AI 模型內含偏見,用戶長時間互動後,這些偏見可能被進一步強化,甚至影響用戶的思維方式。這樣的影響力,讓人不禁擔憂 AI 帶來社會分化與公平正義的問題。
歐盟率全球之先,在 2024 年通過《人工智慧法案》,要求 OpenAI 等企業揭露更多演算法的運作資訊。然而,各國都未有更積極的行動,但技術的發展一定會走得比法規更快。除了要求科技業公開訓練資料來源與細節之外,奧森在書中強調,技術本身是社會的鏡像,當社會仍存有偏見時,AI 只會進一步放大這些問題。
奧森在接受《金融時報》訪談時表示,人類仍有機會塑造一個更加多元、公正的未來,而這樣的進步也將反映在 AI 系統中,成為未來開發負責任技術的根基。
(本文由 經理人月刊 授權轉載;首圖來源:Flickr/TechCrunch CC BY 2.0)