誰在控制 AI 的真相?Grok-3 與馬斯克的 AI 矛盾

作者 | 發布日期 2025 年 03 月 06 日 8:20 | 分類 AI 人工智慧 line share Linkedin share follow us in feedly line share
Loading...
誰在控制 AI 的真相?Grok-3 與馬斯克的 AI 矛盾

xAI 的新 AI 模型 Grok-3 原本能談論川普和馬斯克的爭議,甚至稱馬斯克是「最大的不實資訊傳播者」。但 xAI 工程師巴布施金(Babuschkin)認為這是「模型的嚴重錯誤」,於是修改系統,讓 Grok-3 不再回答相關問題。後來更發現,系統被設定為排除所有不利於川普和馬斯克的消息來源。巴布施金透露,這項修改是由某前 OpenAI 員工負責,他還不習慣 xAI 的文化。這起事件讓外界質疑,馬斯克聲稱的「無偏見 AI」,是否真的不受控制?

如何讓 AI 不再是「數位傳聲筒」?

xAI 最新推出的 Grok-3 模型,原本宣稱具備「無濾鏡」與「追求真相最大化」的特點,試圖與 OpenAI 旗下的 ChatGPT 做出區隔,吸引追求資訊透明度與反對審查的使用者。然而,當 Grok-3 部分回答內容涉及馬斯克自身爭議,甚至直言馬斯克是「最大的不實資訊傳播者」時,整個風向瞬間逆轉。

xAI 工程師巴布施金直接將這些回應描述為「模型嚴重錯誤」,並迅速修改系統,讓 Grok-3 停止回應相關問題。更令人玩味的是,後續更被發現,Grok-3 的資料篩選機制早已被設定為排除所有不利於馬斯克與川普的消息來源,這與馬斯克高舉的「AI 言論自由」旗幟形成巨大反差。這起事件不僅再次突顯 AI 訓練數據的選擇權掌握在少數人手中,也讓「AI 客觀性」的神話再度面臨嚴峻考驗。

AI 的資訊來源、訓練數據與篩選機制,直接決定了使用者接收到的世界樣貌,這也是為何資料透明與審查機制公開化至關重要。若企業或開發者單方面決定哪些資訊值得被 AI 學習、哪些觀點應被隱藏,AI 很可能淪為服務特定立場與利益的工具。

Grok-3 事件正是絕佳案例:當 AI 觸及權力核心、揭露有權者的不利資訊時,AI 的「追求真相」即刻遭到封鎖。這類事例不僅發生在私人企業,政府、政黨或其他擁有資源的團體同樣可能透過資金與政策影響 AI 的內容輸出。如何設計一套機制,讓 AI 的學習與回應透明可查,同時接受多元監督,才能真正讓AI擺脫成為「數位傳聲筒」的宿命,發揮技術應有的正向價值。

誰有權決定AI的「真相」是什麼

當 AI 成為資訊的重要管道,我們不僅要關注其技術發展,更要思考其背後隱藏的價值觀選擇與權力競逐。Grok-3 的審查爭議,其實是全球科技界共同面臨的縮影。AI 模型是否應該追求「客觀中立」,還是必然會反映開發者或企業背後的價值觀,這是一個無法回避的核心問題。

AI 模型是否真的能達到「客觀中立」,或是從誕生之初就必然烙印著開發者、企業甚至資本方的價值觀與利益考量,這個問題不僅是技術層面的挑戰,更是數位時代價值觀競爭的核心戰場。尤其當 AI 逐步取代傳統媒體與專業資訊來源,成為許多人接觸世界的重要窗口時,誰有權決定 AI「真相」是什麼,誰能定義什麼能說、什麼不能說,這些問題已不再只是科技公司的內部治理議題,而是影響全球資訊生態與民主運作的關鍵環節。

企業與開發者若真心希望打造可信賴的 AI 系統,除了技術最佳化,更應該主動公開 AI 資料來源、訓練過程與審查標準,讓外界理解 AI 為何做出特定回應,而非在爭議發生後才倉促滅火。AI 使用者也應該培養資訊素養,了解每個 AI 回應背後可能存在的選擇性,避免盲目相信 AI 即為「真相」的神話。

Grok-3 事件或許只是一個開端,隨著技術進化與商業競爭加劇,如何在技術發展、商業利益與資訊透明之間取得平衡,將是 AI 產業與整個社會必須共同思考與面對的長期課題。

(首圖來源:Unsplash

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》