Anthropic 斥資 500 億美元,在美自建 AI 資料中心

作者 | 發布日期 2025 年 11 月 13 日 6:44 | 分類 AI 人工智慧 , Claude , 財經 line share Linkedin share follow us in feedly line share
Loading...
Anthropic 斥資 500 億美元,在美自建 AI 資料中心

開發 Claude 模型的新創公司 Anthropic 12 日宣布,計劃斥資 500 億美元於美國本土打造 AI 基礎設施,首先將在德州與紐約興建 AI 資料中心。Anthropic 新的基礎設施將與 Fluidstack 合作開發,以支援快速成長的企業業務與長期研究計畫。

Anthropic 已為超過 30 萬家企業客戶提供服務,其中「大型帳戶」(意指每年貢獻營收超過 10 萬美元的客戶)數量在過去一年成長近 7 倍,企業客戶成為 Anthropic 主要營收來源。《華爾街日報》取得 Anthropic 內部預估顯示,預計 2028 年達成損益兩平,可比 OpenAI 預估同年出現 740 億美元營運虧損更早實現損益兩平。

為了長遠發展,Anthropic 與 Fluidstack 合作興建針對 AI 工作負載最佳化的基礎設施。Fluidstack 是一家 AI 雲端平台,向 Meta、Midjourney、Mistral AI 等客戶提供大規模 GPU 運算叢集。

首批據點將在 2026 年投入營運,之後還會敲定更多據點。這項計畫預估創造 800 個長期職缺、以及 2,400 個建設工程職缺。有助於推進川普政府所提出的 AI 行動計畫(America’s AI Action Plan),確保美國在 AI 領域的領先地位並加強當地基礎設施建設。

「我們距離加速科學發現、以過去無法想像的方式解決複雜問題的 AI 更近一步,而實現這種潛力需要能支撐先進研發的基礎設施。」Anthropic 共同創辦人暨執行長阿莫迪(Dario Amodei)表示,「這些據點將幫助我們打造更強大的 AI 系統,進而推動突破,同時創造美國就業機會。」

在此計畫宣布之前,Anthropic 分別與投資人 Google、亞馬遜有更深入合作。Anthropic 擴大使用 Google Cloud 的技術,包括專為 AI 量身打造的加速器 TPU(Tensor Processing Unit)用量擴充達到 100 萬顆。亞馬遜則啟動 Project Rainier,這項計畫建置的運算叢集採用亞馬遜自研 Trainium2 晶片,數量將近 50 萬顆,全數供應 Anthropic 使用,幫助 Anthropic 提升整體運算資源。

事實上,Anthropic 競爭對手 OpenAI 也在積極擴建自家 AI 基礎設施,透過與 NVIDIA博通甲骨文以及微軟、Google、亞馬遜這些雲端供應商合作,已獲得超過 1.4 兆美元投資金額。

如此大規模投資 AI 基礎設施近來引發外界質疑,包括美國是否具備足夠電力與產業基礎來履行投資承諾,以及 AI 產業是否陷入泡沫化。不只如此,美國政府在 AI 基礎設施投入資金上的角色更成為關注焦點。

(首圖為 Anthropic 共同創辦人暨執行長 Dario Amodei,來源:Flickr/TechCrunch CC BY 2.0)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》