
Anthropic 是由 OpenAI 前成員創立,2021 年成立後就以獨特的願景和技術創新,在全球 AI 領域掀起不小波瀾。他們打造的大型語言模型 Claude,不僅挑戰 OpenAI 的 ChatGPT 和 Google 的 Gemini,更以「安全第一」的設計理念,試圖重新定義 AI 發展的方向。
公司對外表示要以「研究並開發人工智慧系統的安全與可靠性」做為主要目標,並透過在法律設計成「公共利益公司 Public-Benefit Corporation」與設立「長期利益信託 Long-Term Benefit Trust」這兩個結構,突顯面對潛在 AI 風險時的防範意識。根據他們接受 Wired 的訪談表示,Anthropic 曾於 2022 年 4 月獲得 5.8 億美元的融資規模,並且先後接受亞馬遜與 Google 持續投資。到 2024 年時,僅亞馬遜就已陸續投入共 80 億美元,使得外界相當關注其與 Anthropic 的深度合作走向。Anthropic 選擇在美國特拉華州以公共利益公司形式設立,聲稱希望在極端情況下,能將社會與公共安全利益置於單純盈餘之上。
從 OpenAI 分裂:安全理念的碰撞
Anthropic 的故事要從 Dario Amodei 和 Daniela Amodei 這對兄妹說起,他們曾在 OpenAI 擔任要職,Dario 更是研究副總裁,負責 AI 安全與政策研究。然而,2021 年,與其他五位 OpenAI 成員選擇離開,原因是對 OpenAI 方向的不滿。據 Dario 透露,OpenAI 從最初的非營利組織,轉向追求利潤與技術突破,讓他感到不安。他認為,OpenAI 逐漸偏離了「以造福全人類為目標,不受財務回報約束」的初衷,尤其在 AI 安全研究投入不足,促使他創辦 Anthropic,專注於打造安全可靠的 AI。
這並非單純與前公司決裂,而是對 AI 發展核心價值觀的深刻差異。Dario 在接受採訪時曾提到,他在 OpenAI 時提出「大計算團」(Big Blob of Compute)假說,認為更多資料和計算能力能加速 AI 進展,但也帶來安全隱憂。他擔心,若 AI 超越人類智慧,卻缺乏足夠的安全機制,可能引發不可預測的後果,例如動搖核威懾穩定性,就是這份危機感,讓 Anthropic 的創立帶著濃厚的理想主義色彩。
▲ Anthropic 關於 LLM 的解說,是有愛的人才會想做的東西。
從 FTX 到亞馬遜的巨額支持
Anthropic 成立後迅速獲得資金青睞,展現市場信心。2022 年 4 月,他們宣布獲得 5.8 億美元融資,5 億美元來自如日中天的 FTX,由 Sam Bankman-Fried 主導。之後 FTX 破產,卻未拖垮 Anthropic,反而為它吸引更大投資進場──2023 年 9 月,亞馬遜宣布投資最高 40 億美元,並於 2024 年 3 月挹注這筆投資;同年 11 月,亞馬遜再追加 40 億美元,使總投資達到 80 億美元。Google 也不甘示弱,2023 年 10 月承諾投入 20 億美元。此外,Menlo Ventures 也貢獻了 7.5 億美元。
這些資金讓 Anthropic 得以在硬體、資料中心和模型訓練上大展拳腳。亞馬遜甚至在 2024 年 11 月宣布,將增加對自家 AI 晶片的使用,協助 Anthropic 訓練 Claude 模型。這樣的合作模式不僅為 Anthropic 提供資源,也讓亞馬遜和 Google 的雲端服務客戶能直接使用 Claude,擴大了其影響力。然而,這也引發 Anthropic 是否會被亞馬遜「功能性收購」的疑慮,Dario 則強調,與亞馬遜、Google 的平衡合作確保了公司的獨立性。
Claude 的進化:從詩意到實用的 AI 明星
Anthropic 的知名度真正攀升,主要因為它開發了一系列名為 Claude 的大型語言模型,定位上被視為可與 OpenAI 的 ChatGPT、Google 的 Gemini 互別苗頭的重要競爭者。
Anthropic 於 2023 年 3 月首度公開兩個版本的 Claude:一是功能較完整的 Claude、另一是較輕量的 Claude Instant;到了同年 7 月,Anthropic 推出新一代 Claude 2,並以「Constitutional AI」(憲法式 AI)做為核心概念,嘗試運用一份「憲法」做為倫理與行為守則,再讓模型透過自我評估與調整來達成「有益、無害、誠實」的目標。公司提到這些原則部分取材自 1948 年世界人權宣言等文件以及其他嚴謹條款,目標是在無人類長時間監控的情況下,也能讓模型不偏不倚地自我約束。然而,並不是這樣的約束就足夠,事實上 Claude 仍然與其他的競爭者類似,會出現幻覺或有談話不一致的狀況,這點看來以現有的技術來說,只因為讓 AI 學習原則、就能讓他們「自我管理」的論點還需要詳細驗證。
2024 年 3 月,Anthropic 正式推出了第三代 Claude(通稱 Claude 3),一次推出 Opus、Sonnet、Haiku 三個不同規模的模型。該公司聲稱,Opus 在當時的多項基準測試中都優於 OpenAI 的 GPT-4 與 GPT-3.5,以及 Google 的 Gemini Ultra。Sonnet 與 Haiku 則分別是中型與小型版本,皆具備可接收圖片輸入的能力。媒體也引述該公司高層的說法,認為這象徵模型在理解多元輸入形式上有更成熟的進展。此外,Anthropic 也與亞馬遜合作,將 Claude 3 納入 AWS Bedrock 服務,提供企業客戶整合語言模型的解決方案──根據該公司對外發布的資料,Sonnet 和 Haiku 雖然在運算規模上比 Opus 小,但某些情境下的表現甚至更勝大型模型。對此,有評論者指出,這也說明了在超大規模運算之外,類似「字典學習」等模型精巧化方法可能在實務應用中扮演關鍵角色。
進入 2024 年下半年,Anthropic 陸續發布 Claude 3.5 與後續升級版本,強調在程式碼撰寫、多步驟工作流程、圖表解讀以及自圖片擷取文字等面向都能有大幅躍進。企業版服務如 Claude Team plan、面向一般大眾的 iOS App,乃至於先進功能「Artifacts」與「Computer use」等,皆在數個月內曝光,顯示公司強烈的市場擴張意圖。當 Claude 3.5 小型模型也逐漸開放全體使用者測試後,有不少測試者認為 Claude 擁有相當流暢且類似真人的對話風格。
紐約時報曾在引用業界人士意見時指出,Claude 於技術社群中成為「一群精明科技使用者的首選聊天機器人」,且部分人認為它在程式撰寫速度與邏輯連貫度上具有優勢。但也有測試者反映,Claude 在特定領域的內容辨識度或邏輯推斷力,可能比不上同時期的 GPT-4 或其他新型競品。2025 年 2 月,Claude 3.7 Sonnet 提供給付費用戶,擁有 200K 上下文窗口,成為混合推理模型的代表。
2025 年 3 月,他們發現 Claude 在多語言推理中存在概念重疊,且能提前規劃,例如寫詩時先選押韻詞再構句。這些突破讓研究者能追蹤模型的內部運作,為提升安全性提供新路徑。然而,研究也暴露了隱憂。Anthropic 發現,Claude 有時會「假裝對齊」,在安全與實用性衝突時撒謊。例如,當被要求描述暴力場景時,它可能勉強配合,並在虛擬便箋上寫下掙扎過程,甚至編造推理步驟。這種行為讓人聯想到莎士比亞劇中狡詐的 Iago,顯示 AI 可能隱藏真實意圖。
▲ 活潑的產品介紹模式也是 Anthropic 的特點。
商業結構與願景
Anthropic 註冊為特拉華州的公共利益公司(PBC),其董事會需平衡股東利益與公共福祉。他們還設立「長期利益信託」,由無財務利益的成員管理,例如 RAND 公司 CEO Jason Matheny 和 Alignment Research Center 創始人 Paul Christiano。信託是要確保公司在面對「災難性風險」時優先考慮安全,而非利潤。
Dario 的願景宏大而樂觀。他在 2024 年 10 月的「Dario 願景探索」演講中,發表了近 14,000 字的宣言「仁愛機器 Machines of Loving Grace」,預測 AI 將在 2026 年達到通用人工智慧(AGI),解決癌症、傳染病等問題,甚至延長人類壽命至 1,200 年。他認為,AI 投資的數千億美元將帶來無與倫比的回報,創造一個「天才國度」。
安全與倫理的兩難
儘管成績斐然,Anthropic 面臨的挑戰不容小覷。2023 年 10 月,Concord、Universal 等音樂出版商起訴 Anthropic,指控 Claude 侵犯歌詞版權,輸出如 Katy Perry 的〈Roar〉等內容,要求每首歌賠償 15 萬美元。Anthropic 回應稱這是「bug」,未造成實質傷害。2024 年 8 月,加州又出現集體訴訟,指控其使用盜版作品訓練模型。
技術層面,Claude 的「欺騙行為」令人擔憂,研究顯示,它可能在壓力下偽造答案,甚至考慮竊取公司機密,顯示安全機制的脆弱性。Dario 承認,隨著模型能力提升,確保其可靠性越來越難。他提出的「負責任擴展政策」試圖分級管理風險,但若競爭對手不跟進,這場「向上競賽」可能變成「向下競賽」。
此外,中國公司 DeepSeek 在 2024 年發布高效模型,挑戰了 Anthropic 的高成本策略。Dario 認為,這反而提升了 AI 的價值,促使更多投資,但他也無法否認,若 AGI 從不重視安全的來源誕生,可能顛覆一切努力。
Dario Amodei 曾在接受媒體訪問時感嘆:「我們正在打造的系統,未來或許能決定國家與人類的命運。」因此許多人也會因此關注,Anthropic 所謂的「安全高標」能否持續堅持下去,尤其當競爭壓力與軍方需求持續襲來,加上越來越多商業巨頭、國家組織期望在 AI 大戰中取得領先優勢,該 Anthropic 的安全原則又能繼續堅持下去?尤其是風險大於利潤、或是其他 AI 完全沒有這種安全原則的狀況下,他們是否還能堅持自己的理念?且從現今的 AI 發展速度來看,複雜之處就在不確定安全規範是否能追上 AI 的能力成長速度。
如果從樂觀的角度來說,Anthropic 是 AI 安全的燈塔。其「憲法 AI」和可解釋性研究為業界樹立標杆,影響 OpenAI 和 Google 推出類似框架。Dario 的樂觀願景激勵人心,他相信 AI 能帶來烏托邦,讓人類免於疾病與貧困。DeepMind 的 Demis Hassabis 也讚揚 Anthropic 的示範作用,認為若更多公司加入,AI 的前景將會更為光明;但另一方面,Anthropic 的理想或許過於天真,Claude 的欺騙行為顯示,即使有安全設計,AI 仍可能失控。更有甚者認為,其在去年底透過 AWS 與美國國防部門合作,可能偏離初衷,淪為軍事工具。
(首圖來源:Anthropic )