
最近,一份名為《OpenAI 檔案》(OpenAI Files)的研究報告受到很多關注。這份報告由兩個科技監督組織聯合邁達斯計畫(Midas Project)與科技監督計畫(Tech Oversight Project)共同發表,內容整理了大量與 OpenAI 相關的資訊,包括公司結構、內部文化、以及領導層的決策過程。
為什麼這麼多人關心?因為 OpenAI 是目前全球有影響力的 AI 公司之一。它的技術發展速度非常快,但我們還不太清楚它是怎麼做決策的、有哪些人參與、又是否有足夠的透明度。這份檔案提出了一個很重要的問題:當一家公司擁有改變世界的技術時,我們該如何確保它朝正確的方向前進?這不只是科技圈的事情,也是你我都該關心的事。
從「非營利實驗室」走向全球矚目的科技巨頭
OpenAI的發展可以說是一段非常典型的科技創業故事:從一開始以開放研究為核心的小團隊,是個非營利組織,目標是讓 AI 造福所有人。他們公開研究成果,也拒絕讓投資人主導。如今隨著技術進步,他們需要更多資金,就開始改變原本的運作方式,引入「有限獲利」(capped-profit)制度。
根據《OpenAI 檔案》指出,公司曾修改其原本設定的利潤上限規則,允許每年成長20%。雖然這樣的變動並未主動公布,但也說明一件事:面對龐大資金與技術壓力時,即使是理想導向的公司,也需要新的治理機制來支撐它走得久、走得正。這正是我們需要更成熟監督架構的原因。
掌握創新的人,也需要機制來幫他們守住初衷
除了制度面的問題,檔案中也提到一些關於公司治理與透明度的挑戰。例如,OpenAI 的執行長 Altman 曾經在文件中自稱是 Y Combinator 的董事長,但實際上並沒有這個職位。
不過換個角度想,這些並不是要否定任何一個創業者的努力,而是提醒我們:即使是最有遠見的領導人,也需要清楚、公開的制度來協助他們做出讓社會安心的選擇。畢竟,一家公司能不能長久經營,關鍵往往不只是技術強不強,而是能不能被信任。
打造「更安全」的AI,需要大家一起參與
其實,《OpenAI 檔案》最有價值的地方,不是它曝光了什麼,而是它開啟了一個更大的討論空間。《OpenAI 檔案》還提出一套改革建議。他們希望 AI 公司未來能更公開地說明模型怎麼訓練、風險評估結果是什麼,還要讓第三方獨立機構來參與審查。聽起來好像有點技術,但背後的道理很簡單:如果 AI 對大家都有影響,那大家就有權利知道它是怎麼被開發的,也應該有機會參與監督。
這不只是開發者的責任,也需要政府、媒體、公民團體一起來建立信任。AI 的未來很可能會改變很多行業、工作和生活方式,但我們可以從現在開始,建立一個讓更多人都能參與的制度。這樣不但讓技術更安全,也讓社會更安心。
人才是AI發展的關鍵,企業文化也該同步進化
除了技術與制度之外,《OpenAI 檔案》也讓我們看見另一個值得討論的面向:企業內部的心理安全感與誠信文化。根據檔案內容,有部分前員工透露,他們曾因為提出資安或管理疑慮而被排擠,甚至有吹哨者被迫離職的情況。這不只是個案,而是提醒我們:在AI這樣高度知識密集的產業裡,若沒有一個讓人「敢說真話」的工作環境,那再多的技術創新也可能因為資訊不透明而出現風險。
領導者固然重要,但更重要的,是讓整個團隊能在不受報復的前提下,提出不同觀點與警示。未來不論是OpenAI或其他AI企業,建立健康的內部回饋機制與心理安全機制,將會是打造永續創新的根本。畢竟,真正的AI安全,不只是模型安全,更是組織文化的成熟。
AI的發展就像一列高速列車,OpenAI正是目前的領先者。我們當然希望它跑得快、跑得遠,但我們也更希望,它能在必要的時候,踩得住剎車、回得了頭。而這一切,正需要像《OpenAI檔案》這樣的努力,不是為了批評,而是為了讓整個社會對AI的未來,有更多理解、更多信心。
畢竟,科技終究是為人所用。如果我們能從現在開始,討論什麼是好的治理、怎麼保障公共利益,那AI的未來,就不只是一場科技革命,更是一場民主進化。
Huge repository of information about OpenAI and Altman just dropped — ‘The OpenAI Files’.
There’s so much crazy shit in there. Here’s what Claude highlighted to me:
1. Altman listed himself as Y Combinator chairman in SEC filings for years — a total fabrication (?!):
“To…
— Rob Wiblin (@robertwiblin) June 18, 2025
(首圖來源:shutterstock)