Google 為了追上 ChatGPT 降低道德底線,還能說「不作惡」嗎?

作者 | 發布日期 2023 年 04 月 24 日 8:20 | 分類 AI 人工智慧 , Google , 科技政策 line share follow us in feedly line share
Google 為了追上 ChatGPT 降低道德底線,還能說「不作惡」嗎?


「Don′t Be Evil」(不作惡)這句口號,2018 年前一直是 Google 座右銘和行為準則,指 Google 做事時要遵循道德和法律,不做有害社會和用戶的事。

但到 2018 年就修改為「Do the right thing」(做正確的事)。這被許多人認為 Google 違背初心,商業行為也沒有保持技術中立性,更偏商業獲利,收集用戶隱私,利用數據大賺錢。

提起 Google 這句經典口號,是因 AIGC 突然爆發,與網路爆發異曲同工。CEO Sundar Pichai 接受 CBS〈60 分鐘〉節目採訪時,對 AI 又提到「Don′t Be Evil」,也表示 Google Bard 顯得笨拙,是沒有公開高級版。「希望社會更多時間適應 AI,給公司更多時間開發安全圍牆」。

簡單來說,Pichai 認為 Google 實力不比 OpenAI 差,是因社會責任才暫時封印 AI 技術。但無論彭博、the Verge 或金融時報,Google 本身對 Bard 及 Google 對 AI 技術開發和監管,都有截然不同的聲音。

為了抗衡 ChatGPT,倫理道德先放一邊

約 2011 年 Google 創立 Google Brain,開始深度學習領域,代表 Google 涉足 AI 業務。從此以後,Google 幾乎每年都會在 AI 領域取得小成果和小目標。從 AlphaGo 下棋贏過世界冠軍李世乭,到發表 TensorFlow 開源框架,再到機器學習晶片 TPU,和近期 BERT、LaMDA 等語言模型。

Google AI 領域可謂輕車熟路,研究 AI 時也有風險團隊、技術團隊等,可謂兵強馬壯。當然也有點不可一世。

每年 Google 開發者大會也轉向 AI,展示 AI 領域的深厚實力。外界也普遍認為,Google 會率先引領 AI 變革。直到 ChatGPT,準確的說是 GPT-3 橫空出世,以及 GPT-4 和 Midjourney V5 續熱,還沒等 Google 反應過來,微軟就抓住機會與 OpenAI 合作,將 ChatGPT 加入新 Bing,引發「搜尋」改革。

(Source:shutterstock)

當 Google 回過神來連夜推出 Bard,卻一上線就鬧烏龍、出不少錯,且至今只支援英文,與 ChatGPT、新 Bing 相比,Bard 遜色太多。倉促推出 Bard 的結果,就是引發信任危機、股價大跌,即便後續調整,Bard 影響力仍不能與 ChatGPT 相提並論。

造成這局面,Google 員工也表示,Bard 壓根就沒通過道德基準測試,很容易說謊和負面言論。內測時某員工問 Bard 如何降落,回答步驟極易導致墜機。另一員工問 Bard 潛水問題,它說出容易導致嚴重傷害或死亡的答案。

除了危險答案,道德倫理和社會問題,Google 也放寬要求。Google 有 AI 道德團隊,會搜索、確立、評估 AI 的風險,有權直接為某技術打紅色標籤,未通過測試就暫時不公開。

Google 承諾 2021 年擴充 AI 道德團隊,並投入更多資源,限制研究員太逐利。但團隊領導人一直換,且去年遭裁員,目前 Google AI 研究員比道德團隊多 30 倍。甚至 ChatGPT 搶盡 AIGC 鋒頭後,Google 開始動搖,道德團隊員工被告知不要阻撓或「殺掉」任何開發中生成式 AI 工具。

內測收到不少「質疑」後,Google 面對微軟和 ChatGPT 的商業壓力,最終選擇以「實驗產品」名義發表。因統計調查實驗產品即便有缺陷,也容易被大眾接受,且一些員工也認為新技術盡快公開,獲得回饋就能更快更新、改善產品。Bard 發表後一段時間,Google 也只增加數學邏輯,至於敏感圍牆、敏感主題是否改變和最佳化都沒有提及。

Bard 在每日一變的 AI 浪潮中似乎漸漸邊緣化。

馬斯克:AI 必須受監管

有趣的是,Pichai 訪談後,馬斯克也在 Fox 新聞談到 Google。馬斯克與 Google 創辦人 Larry Page 是好友,Page 甚至持 10% 的 SpaceX 股票,還想跟馬斯克一起去火星玩沙。但 2014 年 Google 收購 DeepMind 後,二人對 AI 看法產生分歧,最終不相往來。

▲ 馬斯克與 Larry Page。

同年 Page TED 演講時表示,終極目標是建造超級數位人工智慧,稱為「數位之神」(digital god)。Pichai 在〈60 分鐘〉沒有否認也沒有認同,只表示 Google 將在 5 月 10 日開發者 I/O 大會發表新 AI 產品。

馬斯克對「數位之神」有清晰認知,Google 有全球接近壟斷的高性能計算機與人工智慧團隊,也最有可能達到「數位之神」境地,但領導人 Page 卻絲毫不關心 AI 的安全問題,對世界來說相當危險,這也是他看到 ChatGPT、新 Bing、Bard 喜歡胡說後,想推出 TruthGPT 的原因。

馬斯克也呼籲各國、各組織推出政策限制 AI 行為。由於生成式 AI 特性,資料來自網路論壇、論文、網站等各式內容,這些都沒有拿掉敏感內容,若不嚴格限制,很容易產生有風險、有害或不準確的言論。

隨著 AIGC 大熱門,入局者猶如淘金熱,彷彿人工智慧進入新發展階段,但目前大模型、高算力工業模式,讓 AI 很容易被大公司壟斷。當組織難維持逐利與安全平衡,就很容易 AI 取向犯錯,造成不可挽回的後果。縱使馬斯克對 AIGC 有私心,但頗會做表面工夫演一下好人。

能力越大,責任越大

Google Photos 會用 AI 辨識圖來標註,幫助用戶梳理圖片分類,算 Google 較早 AI 應用,即便 Google Photos 調整容量,但仍是筆者最常用的 App。2015 年 Google Photos 誤將黑人軟體開發者和朋友圖片標註成「大猩猩」,一般反應是道歉並修改演算法,但 Google 卻將「大猩猩」、「黑猩猩」和「猴子」等搜尋結果全部刪除。

限在面對 Google Bard 的問題,Google 仍沒有想承擔後果的跡象,同樣選擇忽視。為了追上 ChatGPT,Google 的 AI 道德團隊沒有全方位評估,僅研究敏感主題便匆忙推出。彭博也引用前 AI 道德團隊高層評論,認為 Google 對要發展「尖端 AI」或「有道德底線的 AI」一直爭論不休。

AIGC 業界不只 Google,金融時報也暴露微軟、亞馬遜等科技巨頭都大舉裁撤 AI 倫理團隊,彷彿 AIGC 高速發展、互相競爭時,AI 倫理、AI 安全都是影響發展的枷鎖。

如史丹佛大學研究員報告,AI 業快速發展從學術轉向商業化,利益誘惑下,各種 AI 湧現,但背後的倫理道德、安全、敏感、有害訊息等卻遭忽視。大公司不願承擔更多社會責任,僅在法規邊緣徘徊,可能為社會和 AI 業帶來深遠影響。

多國甚至公司組織都積極制定法規,以限制 AI 無節制發展。正富比士中文版前副主編尹生所言:「大公司必須做得比用戶和法律要求更多,因創建新世界並獲益,必須幫助社會學會如何使用它,如果你不主動做,社會就會接管。」

(本文由 愛范兒 授權轉載;首圖來源:shutterstock)

延伸閱讀: