申請 ChatGPT 和新 Bing 帳號為什麼要等這麼久?

作者 | 發布日期 2023 年 04 月 06 日 8:00 | 分類 AI 人工智慧 , 科技趣聞 , 軟體、系統 line share follow us in feedly line share
申請 ChatGPT 和新 Bing 帳號為什麼要等這麼久?


AIGC 最近讓世界瘋狂,每天醒來都可能是「新世界」,但從另一角度看,無論 AIGC 如何智慧顛覆,我們仍身處「舊世界」,或說「候補」世界。

不只新 Bing,Github Copilot X、ChatGPT 外掛程式、Midjourney V5 及 Adobe Firefly,甚至百度文心一言,體驗前都得加入等待清單排隊等試用。這過程就像配給制,AIGC 服務越多,GPT-4、Midjourney V5 升級的等待時間又要延長。如今仍有相當多人還在新 Bing 等待清單上,更別說其他更新生成式 AI。

或許是對等待清單這潛規則的無聲反抗,有人做了「一鍵排隊」網站。不過諷刺的是,「一鍵加入」功能還沒做好,需先加入各家等待清單;且網站功能變數名稱後綴是 .wtf,怨氣拉到滿。

候補名單背後是為了服務更穩定

當把這個問題丟給 Bing,Bing 從 OpenAI 官網三個頁面找到四個原因。

  1. 限制用戶量,確保服務品質和穩定性。
  2. 收集用戶回饋,改善服務和體驗。
  3. 增加使用者期待和參與感,提高知名度與口碑。
  4. 篩選符合目標使用者,提高服務轉化率和留存率。

這更像 OpenAI、微軟、Google 等大公司對看似無限等待的官方說法。相對來說,最先走向大眾的 ChatGPT,模型升級後及大幅降價,服務也有不少波動,如問答紀錄消失,當機,問答清單混亂等穩定度問題。

基於 OpenAI 的新 Bing 也有過激烈言辭,到現在微軟還有限制新 Bing 對話次數與長度。可說限制使用 ChatGPT 和新 Bing 人數,能提供更穩定和快速服務。但這些功能和服務已消耗相當資源,幾乎占用微軟 Azure 一半算力。

AIGC 界尚未出現超級 App,還在快速反覆運算,甚至可說是 Beta 測試版,還用傳統對話框與 AI 互動,其實與 2023 年人手一(手)機不太搭配。AIGC 現在只能算功能,即將推出的 Copilot、Firefly 才更像產品,但仍躺在每家等待清單裡。某方面來說,微軟、Google、Adobe 還在「打磨」產品,想對所有人敞開大門,或說 AI 成為每個人的 Copilot,還需要突破「瓶頸」。

▲ Office 365 的 Copilot 功能。

蓬勃發展的 AIGC,或許開始碰到瓶頸了

「瓶頸」並非外在,生成式 AI 的倫理、法律或回應準確度,AI 背後提供算力的硬體,以及各種訓練雲端運算。微軟持續投資 OpenAI,先後投資幾十億美元,也逐步出現基於 GPT-4 的新 Bing,和還在等待清單上的新 Office 365。為了保證新 Bing 及有 Copilot 功能的新 Office 365 穩定快速回應,微軟也預留 Azure 一半算力和容量。

這導致微軟 Azure 算力資源緊張。The Information 採訪員工,對有限硬體資源,微軟正在實施硬體等待清單制度。微軟其他開發機器學習模型的團隊和部門,想調用 Azure AI,需逐級申請報備,由一位副總裁定奪。

就如我們排隊等著體驗新生成式 AI,除了新 Bing、新 Office 365 和 OpenAI 服務,微軟其他部門也在排隊等著用 Azure 算力。只是隨著微軟 All in OpenAI 策略,Azure 算力和容量漸漸緊張起來。

除了公司調用,Azure 也有各種產品和服務,如 AI、計算、容器、混合雲、物聯網等。Azure 目前在全球 60 多地區提供服務,對外伺服器產品和雲端收入佔微軟總營收 36%。但與團隊類似,Azure 客戶也受算力有限影響,尤其想調用 Azure OpenAI 一樣得加入等待清單。

大概從 2022 年底,微軟就打算增加更多硬體(GPU 或 TPU)以擴充算力。微軟與輝達達成協定,增加數萬個 H100 GPU,為 OpenAI 提供更高 AI 訓練和推理效率。不過微軟與輝達並未透露 Azure H100 部署情況,微軟也只有少部分團隊擁有 H100 調用許可權(大概是新 Bing 和 Office 365 團隊),其他部門也要排隊。

一塊 H100 售價約 24 萬元,微軟 Azure 擴充就需投資數億資金。不只微軟,Google、甲骨文等雲端服務商也大力投資 GPU 等硬體準備擴充,AIGC 徹底爆發前做好算力準備。

▲ 輝達 CEO 黃仁勳與 OpenAI 聯合創辦人兼首席科學家 Ilya Sutskever 對談。

但從 GTC 2022 發表到現在,輝達沒有公布 H100 產量和銷售狀況,微軟 Azure 擴充計畫是否有效也不得而知。GTC 2023 輝達並沒有說更多 H100、A100 硬體進展,只強調輝達雲端計算硬體的優勢。首席技術長也強調「加密貨幣對社會沒有貢獻,AI 才有」,側面強調 AIGC 領域將是輝達之後 30 多年專注的領域。

隨著 AIGC 持續運算,2022 年 10 月輝達股價也跟著增加,一掃加密貨幣衰退導致業務下滑頹勢。目前輝達市值又達到新高點,幾乎等於英特爾、AMD、ARM 三家市值總和。

但高市值似乎沒有改善硬體供應狀況,反而隨著 Google、微軟等大企業不計成本資源投資雲端硬體,輝達很可能再次出現顯卡荒。不只硬體,高性能 GPU 組成的計算矩陣也需高功率,單張 SXM 介面 H100 功率就達 700W。AI 模型訓練和大數據計算中心耗電量更十分驚人。

2021 年加州大學 David Patterson、Joseph Gonzalez 研究顯示,訓練 GPT-3 大概需耗費 1.287 千兆瓦時電力,相當於 120 個美國家庭一年電量。論文還發現訓練 GPT-3 會產生 502 噸碳排放,等於 110 輛汽車一年排放量。他們雖強調這只是一個模型的訓練成本,但進入市場後會消耗更多資源,可能比訓練成本更高。

OpenAI GPT-3 有 1,750 億個參數或變數,GPT-4 參數更預估 1,750 億到 2,800 億。對於能耗,雲端計算需求只增不減。OpenAI CEO Sam Altman 接受 The Verge 採訪時表示,OpenAI 正在尋找更有效方法提升模型性能和安全性。換句話說,OpenAI 也試圖用高效演算法尋找節省訓練模型的硬體資源與電力。

等待清單機制表面看可確保 AIGC 使用體驗,以及服務回應速度。但深層看,更是資源角力,是 GPU、TPU 為核心的雲端算力和容量互相角力,也是高投入高能耗的競爭。目前 AIGC 仍處於「盲盒」階段,資源需求和使用也不明朗。

不過站在各種 AI 服務的等待清單隊伍裡,確實很像科幻電影人們排隊進入 AI 控制的工廠,提供運作資源。等待清單就是虛擬世界的候補,也可能是將來現實世界的 AI 服務佇列。

(本文由 愛范兒 授權轉載;首圖來源:shutterstock)

延伸閱讀: