雲端是未來,那 ARM 在伺服器市場到底有沒有搞頭?

作者 | 發布日期 2017 年 08 月 12 日 0:00 | 分類 伺服器 , 處理器 , 零組件 follow us in feedly

聽說 ARM 目標在 2020 年拿下兩成的伺服器市場。



喔齁。

這是遍布地雷的棘手主題,拿捏不好,就會隨時引爆「x86 義和團」、「RISC 十字軍」與「ARM 親衛隊」的瘋狂大亂鬥,為此拖稿了整整一週,拖到連塞給 TechNews 編輯的藉口都用光了,所以各位不會在這裡看到琳瑯滿目的技術名詞,應該不會對目前市場上與發展中的 ARM 伺服器晶片品頭論足,絕對不會出現隨隨便便賭上爺爺的名譽而做出蓋棺論定的無責任預言,能讓各位掌握 87% 的全貌,就不算失敗了。

大哉問:我要 ARM 伺服器幹麼?

現成的軟硬體用得好好的,為什麼要換?

選擇伺服器的處理器指令集架構,並不是什麼宗教信仰,而是在商言商,有實際的好處和利益(或換句話說:沒有明顯的壞處和麻煩)。假設你身為公司的 IT 人員,總不可能明著跟老闆講「因為從學生時代受的科班教育,讓我不得不痛恨 CISC 的 x86,請賞賜我一大筆預算,把公司萬惡的軟硬體架構統統換掉」吧?

真的這麼討厭 CISC 指令集,強烈建議這些 RISC 十字軍先去「討伐」藍色巨人 IBM,為何 Project ECLipz「傳說」了這麼久,雷聲大雨點小,僅看到從 Power6 和 z6 開始共享部分處理器功能單元設計,見證 Power 系統取代一大票佔領銀行核心帳務數十年、仍雄踞伺服器世界頂峰的 S/360 大型主機後代子孫之日,依舊遙遙無期。

你看看你看看,IBM 喊 Power Everywhere 喊了這麼久,搞到連蘋果都跳船不用了。

回到主題,關於「Why ARM Server」,一般比較常見的下意識回覆,不外乎「ARM 晶片一定比較省電」、「ARM 晶片一定更便宜」、「ARM 生態系享有巨大的軟體資源」、「需要 Intel 以外的選擇」等,但這些近似單細胞反應的「大哉答」,就像用過許久的 Copy on Write 檔案系統底層區塊,根本就是一塊塊漏洞百出的過期乳酪。

為求謹慎起見,我們先假定要做出可以「完全取代」現行 x86 體系的 ARM 伺服器晶片,看看這些大哉答有哪些顯而易見的謬誤。

ARM 晶片比較省電:從時下的手機晶片和嵌入式系統角度來看,ARM 的確比較省電,但一旦要做成兼具高複雜度的微架構核心與伺服器等級的多核心晶片,眾多追加的「外掛」,如恐龍化的非循序執行核心、單核心同時多執行緒、大型化的多階層快取記憶體、支撐多處理器延展性的系統匯流排、連接不同類型裝置的高速 I/O 介面等,就會稀釋掉指令集本身複雜度帶來的額外負擔。

至今仍存活於市場上的 IBM Power 和 Oracle / Fujistu 的 SPARC 就是最佳例證,根本省不到哪裡去,效能功耗比能佔到多少便宜也是一個大問號,反倒微架構設計需兼顧筆電市場的 x86 體系,拜 Intel 和 AMD(與眾多消失於歷史洪流的小廠,像 Cyrix)激烈競爭 20 年之賜,反而在這方面還可以佔到一些便宜。因市場需求龐大而享有至少領先一到兩個世代的先進製程技術優勢,更只會讓所謂的「精簡指令集優勢」更蕩然無存,20 年前伺服器市場的演進和「RISC 諸神的黃昏」已經告訴我們答案了。

ARM 晶片更便宜:同理可證,羊毛出在羊身上,這樣做出來的東西真的比較便宜?x86 體系有巨大的 PC 與筆電市場,支撐高效能設計的研發投資成本,但以手機市場為主的 ARM 還無福消受這樣的現成利基,除非你願意自我催眠硬湊現成 CPU IP 的多核心伺服器晶片就是最好的解答,但很明顯的,擁有 Cortex-A57 核心 Opteron 的 AMD 和 ARM 本家並不這麼想。

就算硬體採購成本比較低,難道投資在早期評估、軟體部署、效能調校、教育訓練和承受潛在失敗風險的成本就不是「成本」?

當然,設計 x86 微架構時,不得不同時兼顧三者(近年的守備範圍只會更廣,所以才催生 Intel 原子小金剛和 AMD 山貓家族),也會造成很多設計取捨而無法完全滿足特定應用的麻煩事,桌機和筆電市場的萎縮也是潛在的長期危機,這後面再好好談談。

ARM 生態系享有巨大的軟體資源:現在寫手機 App 的人很多,IoT 也喊得很響,不代表這些就是「可用的資產」,x86 伺服器的發展極度受惠於兼顧伺服器與桌機應用的作業系統,如從 Windows XP 開始統一兩者的 Windows NT 系統核心,與眾多 i386 Unix 如 Linux 和 FreeBSD 等,以 Android 為首的手機作業系統可就沒這麼好運。

可能當下不乏跳出來抗議的有識之士:憑什麼斷定足以堪稱典範轉移的重大應用突破,絕不會發生在伺服器市場?(原本我很想談 PS3 的 Cell 處理器,原始專利提及的潛在應用模式,和 Intel 過去在實驗室內搞出來的花樣,但我不想再增加這篇地雷文的複雜度了)況且又不是只有套裝伺服器,那麼多狂蓋大型資料中心的雲端服務業者,他們難道不會自己關起門來搞嗎?

還是先等有真正「好用」的晶片,再講吧,這還涉及商業模式和整體持有成本的問題。請保持耐心,後面會提到。

需要 Intel 以外的選擇:先不提 AMD 的 x86 產品線,為何非得要整個生態系統還五窮六絕的 ARM 不可?堅持非 RISC 不要,現成的 IBM Oracle Fujistu 難道不行嗎?難不成要拿 Android 來當伺服器作業系統?

呆伯特法則包含一條「天底下任何事物都有邏輯上的極限」,「因為 ARM 伺服器的生態系統尚未完備,只要假以時日,生態系日漸完整,就可一飛衝天,大展鴻圖」。那我們就挑戰邏輯的極限,假設今天世界上有一間公司,它有數十年的企業伺服器經營經驗,有龐大的有錢客戶,有世界上最頂尖的商用軟體解決方案,也有舉世屈指可數的企業服務能量,更有領導業界的先進半導體製程與處理器研發能力;「反觀」目前這票企圖殺出一條血路的 ARM 伺服器晶片廠商,這間公司只要推出 RISC 處理器並願意用力推廣,那早該征服世界了,最起碼征服一大半伺服器市場──但這件事連 IBM 都做不到。

同場加映:關於擁護 ARM 伺服器,筆者聽過最瞎的理由,瞎到足以白眼翻到後腦勺去,莫過於「只要 RISC 指令集能用在伺服器,處理器時脈跟得上,CISC 的 Intel 就完蛋了。」根據個人考證,抱持此類「高論」者,87% 屬於智慧型手機時代才突然冒出來,往往連什麼是超純量、指令集架構和處理器微架構的差異,都傻傻搞不清楚的「新銳計算機結構大師」。

根本輪不到 ARM,光是計算機工業歷史上實際應用在伺服器的 RISC 指令集就多如過江之鯽,但無不曾風華絕代:

  • MIPS:SGI,Irix 作業系統,玩 3D 繪圖的老骨頭不可能不久仰其大名,還跟當代某位很有錢的 RISC 大師頗有淵源。
  • SPARC:Sun / Fujitsu,Solaris 作業系統,普及率最高的商用 Unix,好長一段時間都是 Oracle 資料庫 ERP 跑最快的好所在。
  • PA-RISC:HP,HP-UX 作業系統,製造業用很兇,後來被 Intel IA-64 取代。
  • Alpha:DEC,OpenVMS 與 Tru64 作業系統,高效能 RISC 的象徵,早期愛國者飛彈系統用的處理器家族,後來也被 Intel IA-64 取代。
  • Power:IBM,AIX 作業系統,在 Power4 處理器整合 AS/400 與 PowerPC 後,成為目前高效能處理器世界王者的唯一語言,與 SPARC 一同碩果僅存,偉大的「超純量」一詞,因它而生,雖然好像還有很多「大師」連近代處理器早就可以同時執行多個指令這件事都還一片茫然。1966 年的 CDC6600?1985 年的 IBM America Project?1993 年的 Intel Pentium?在光芒萬丈、尖端科技的智慧型手機前全部都是幻覺啦。

現今 Windows 前身的微軟 Windows NT 也曾支援 MIPS、Alpha、PowerPC 等 RISC 指令集,Alpha 版的 Windows NT 還有 FX!32 這個 x86 應用程式模擬器,但隨著時間流逝,只見 x86 在伺服器市場的版圖越長越大,到今天幾乎壟斷整個市場的程度,這裡不提 Intel 還耗費很大的力氣,發展今日已邊緣化的 IA-64(Itanium)指令集。

以銅為鏡,可以正衣冠;以史為鏡,可以知興替;以人為鏡,可以知得失;沒有鏡子,可以跪 Google,瞧瞧過去二十多年眾多 RISC 伺服器逐漸被 x86 逐出市場的歷史帶給我們的殷鑑。

爬文至此,恐怕義憤填膺的 RISC 十字軍和 ARM 親衛隊準備帶布袋和傢伙出門堵筆者了,但改弦易轍,我們把命題改為「現有 Intel 和 AMD 的 x86 處理器,真的是伺服器與資料中心大戶的最佳選擇嗎?」那又是另一個截然不同的冒險故事了。

Sun「Throughput Computing」的教訓

看著當下這些 ARM 伺服器晶片,大部分越看越像「更換為 ARM 核心的多核心網路處理器」,就不得不重提十多年前 Sun 的大冒險了:Throughput Computing 與首款產品 UltraSPARC T1「Niagara」,和後來因耗電量失控激增到 250W 而一再改版一再延期、在 Oracle 購併 Sun 的關鍵時刻、不幸慘遭腰斬的 UltraSPARC RK「Rock」。

簡而言之,Sun 既然在「傳統」伺服器處理器領域失去競爭力(不提一如往昔很爭氣的 Fujitsu SPARC64,連 Opteron 和 Xeon 都足以取代後期的 UltraSPARC),抓住網路雲端服務開始快速擴展的關鍵時刻,購併了 Afara Websystem,將發展重心轉移至「高壓力網路服務的前端」與「高密度資料處理的後端」的高吞吐量多執行緒處理器,Niagara 和 Rock 分別對應天平兩端的需求,x86 伺服器產品線則填補於兩者的中間,Sun 還特別提出了「CoolThreads」這個言簡意賅、標榜極高電力效率的行銷名詞,也暗指肥大的非循序指令執行超純量處理器是大而無當的耗電怪物。

在此,提醒各位一件事:任何企業 IT 應用都要軟硬兼備,如果 Sun 手頭沒有當時世界最先進的伺服器作業系統 Solaris 和滿手的企業級應用程式為後盾,CoolThreads 根本不可能有任何踏出第一步的可能性。

我們先來一窺 CoolThreads 首發 Niagara 的概要,規格細節就不談了,請自行 Google。如其開發代號,Sun 的目標就是創造出像瀑布一樣的效能吞吐量,但卻以犧牲單執行緒效能「等價交換」:

  • 八核心,每個低時脈(1.2GHz)的純量循序指令執行核心提供 4 個很簡單的粗質(碰到快取誤失之類的長延期才會切換執行緒)執行緒,總計 32 執行緒,因目標需求「應該」用不太到浮點運算,整顆處理器只有一個浮點運算器。
  • 快取記憶體容量不大,但有很巨大的記憶體頻寬,擺明設定的應用場景快取能夠發揮的作用不會太明顯。
  • 耗電量不高,僅 72W。

Niagara 推出之際,Sun 不但狂拋像葉問一樣厲害「一人打十人」的驚人效能測試數據與效能功耗比,台灣某本 IT 週刊的某位吃不飽但也是閒閒沒事幹的技術編輯寫篇封面故事,想測試 Niagara 的能耐,找上台灣最大的電玩資訊網站,實際導入一台 SunFire T2000,「一台抵十台」上線中的前端網站伺服器,長達整整一週的時間,證實其驚人效能所言不假,性能表現竟然優異到網路才是最大的瓶頸。

開第一槍的 Niagara 規格算有點兩光,後繼的 Niagara 2 才更能充分彰顯 Throughput Computing 的真正全貌:

  • 大幅強化每個核心的性能,一個核心提供兩組個別被四條執行緒共用的整數邏輯運算單元,擴展成八核心 64 粗質多執行緒的瀑布,也改善執行緒排程以強化單一執行緒的效率,每個核心擁有獨立的浮點運算器(有沒有感覺苗頭開始不對了?)和加密輔助處理器,讓它看起來更像如假包換的網路處理器。
  • 整合兩組 10GbE 網路控制器與 PCIe x8 介面。
  • 聊勝於無的微幅增加快取記憶體容量。
  • 記憶體改為又貴又熱的 FB-DIMM 介面。
  • 因為更高的整合度,耗電量稍稍提升到 95W。

問題來了,那為何後來 Niagara 家族沒有在市場上得到重大勝利?尚無 Google 之類的雲端服務業者大舉導入?連前面提到的台灣最大電玩資訊網站最後也沒採用?甚至為高壓力網路服務的前端量身訂做的特化風格,從此中止發展,整個 Throughput Computing 慢慢重回更加傳統的超純量同時多執行緒非循序指令執行的過氣路線?時脈與耗電量又重回了 3GHz 和兩百多瓦的水準?結果 CoolThreads 一點都不 Cool。

  1. 因為這是從頭全新發展的產品,為攤平研發成本,產品單價還是太高,即使你知道在特定的應用,它真的可以一人打十人。
  2. 單執行緒效率太差,作業系統太特別,降低了泛用性,代表日後想要淘汰伺服器,也不容易找出從第一線退休後的第二春。
  3. 需特別為這獨樹一幟的「特殊番號」投入不少時間精力進行效能調校與後繼維護,以前述台灣最大電玩資訊網站為例,導入上線前,光熟悉 Solaris、效能調校與前導測試,就沒日沒夜整整花了將近一個月,早上不知吃了多少次 Sun 的行銷送來「賑災」的鼎泰豐,事後也評估「產品很棒,但不那麼適用」。原因很簡單,套句軍事用語:增加後勤負擔。

二戰時的蘇聯規劃裝備篤信的原則:在能到手的武器中,挑選出最好的,型號宜少不宜多,盡量簡單實用,然後大量生產。但德軍就因各類武器的型號、功能與設計過於繁複,亦不乏難以供養的「超級兵器」,對後勤維護與作戰部署帶來諸多不便。以上的戰爭經驗,其實對企業選擇合用的伺服器,也一體適用。

很不幸的,針對 ARM 陣營可能的突破點,Intel 策略性推出通用性還不賴、產品價格區間涵蓋範圍夠完整、同樣整合多核心多執行緒 10GbE 網路與加密處理器──而且毋需操心缺乏軟體與單執行緒效能不佳的問題──的 Xeon D(初代是 Broadwell-DE)產品線,很精確的狙擊到想如法炮製昔日 Sun CoolThreads 策略的 ARM 伺服器處理器廠商,如果 AMD 也「共襄盛舉」推出類似的 x86 晶片(AMD 替 Sony 微軟打造的遊戲機晶片很有這樣的味道),ARM 陣營的處境只會更加嚴峻,尤其缺乏伺服器環境驗證經驗,絕對是 ARM 陣營的大罩門。

服務反應時間就是鈔票的 Google

電玩資訊網站頂多幾十台伺服器,僅導入幾台 SunFire T2000 這樣的特殊伺服器肯定不划算,但一次就部署個數千數萬台,形成經濟規模後,不就沒這樣的問題了?對,我就在講 Niagara 剛推出時,一談到潛在大客戶,幾乎所有人第一時間想到的 Google。近年來,一扯到 ARM 伺服器,眾人的雷達也毫不猶豫的鎖定現今雲端服務的霸主。

Google 就快快樂樂的導入 Niagara了……才怪,Google 最重視的是服務反應速度,這背後的邏輯跟不務正業推出 Chrome 瀏覽器與積極推廣高速網路有 87% 相似度。你現在可能馬上腦袋打結了,處理器和瀏覽器和建設高速網路有什麼瓜葛?

請先思考一下 Google 的業務基礎是什麼。對,就是廣告,Google 渴望在最短的時間內讓使用其服務的人看到最多廣告,也因此,他們需自行打造高效能的瀏覽器,並努力推廣高速網路,同時也需要可縮短服務反應時間的伺服器,因為對 Google 而言,越短的服務反應時間,除了更好的使用者體驗,更代表越多白花花的鈔票。

所以 Google 資料中心塞滿一堆 Intel 的 x86 處理器也不是令人意外的結局,而且有極高比例還是理論上延遲時間最短的單處理器平台,甚至很可能連同時多執行緒都不想打開,只為了縮短運算延遲。當年 Sun 的「瀑布理論」,撞上 Google 的商務模式,馬上就破功了。誰說高時脈與高單執行緒效能對網路服務不重要?

按照同樣的「87%」邏輯,同樣謠傳「被導入」ARM 伺服器與已經公開宣布測試 IBM Power,為何 Google 玩後者看起來就比較像「玩真的」?因為從來沒人敢懷疑 IBM Power 絕對可在很多資料處理領域提供遠勝同時期 Intel Xeon 的能力,不僅可擁有更多和 Intel 討價還價的籌碼,Power 傲視世界的效能,也同時替 Google 帶來商業上的重大價值:時間。

問題又來了,雲端服務千百種,而且又不是所有雲端服務業者都像 Google 一樣靠上網賣廣告維持家計(講得 Google 好像很窮的樣子),假如我只要建構便宜的免費雲端儲存服務,資料中心只需功能單純的客製化儲存伺服器晶片,難道 ARM 伺服器沒有空間嗎?很剛好地,這的確是 Annapurna Labs 之類的晶片廠商很擅長的領域(不少 NAS 用他們家的晶片),然後又很剛好地,這間公司已是 Amazon 的一部分了,Amazon 也開始擁有晶片銷售業務,後繼發展,值得慢慢觀察。

至於 Google,曾在 DEC 參與 Alpha 處理器中的 Piranha 計畫──Sun Throughput Computing 概念的先驅──的 Luiz André Barroso,2005 年在 ACM 發表「An Economic Case for Chip Multiprocessing」,至今已相隔超過 10 年,只聞樓梯響,不見人下來,讓人不得不陰謀論:Google 挑 Sun 大張旗鼓的心理關鍵時刻放這一砲,該不會只為了要跟 Intel、AMD 殺價吧?

ARM 伺服器唯一的機會在快速客製化與 Time To Market

一路看下來,先將近年新聞報導的海外誓師大會束之高閣,似乎苦苦掙扎中的 ARM 伺服器陣營已四面楚歌,連應該最看好、在資料中心網通設備累積巨大資本、最有揮灑本錢的 Broadcom 都中止 Vulcan 計畫抽腿不玩了,但重新檢視 x86 處理器的最根本問題與最基本弱點,就會看到一絲微弱的曙光。

為何 x86 指令集會被討厭到「大概只有發明它的人才會喜歡」?(Intel 內部也不是每個人都喜歡 x86,要不然也不會發展 iAPX 432、i860、i960 和 IA-64)不僅多數資訊科班在養成教育過程中,被 RISC 大師撰寫的計算機組織結構教科書洗禮,x86 指令集毫無道理可循的高複雜性和缺乏統一版本的亂象,大幅墊高了研發處理器的投資與時間成本,導致今天僅剩 Intel 與 AMD 是唯二有能力持續推陳出新產品的廠商,嚴重傷害了處理器業界的多樣化發展,整個計算機工業和資訊產業也跟著連帶付出難以估算的重大代價。

假如今天是 ARM 或某種 RISC 指令集取代 x86 世界,僅憑想像也可斷言電腦技術發展會更快,處理器產業也會更百家爭鳴,競爭更激烈的市場將帶來更好、更便宜、更貼近當下市場需求的產品,不會搞到扣除手機、平板、嵌入式系統(車用是比較特別的案例)、高階伺服器外,只剩下兩家可選的慘況。

別扯不是定律的摩爾「定律」了,筆者合理懷疑那根本是保護半導體製程工程師生活品質的陰謀(跟上曲線就算 KPI 達標了)。沒有摩爾定律,可能半導體產業進步的速度會更快也說不定。看來半導體製程與設備研發人員即將加入偷蓋筆者布袋的行列。

到頭來,現有 Intel 和 AMD 的 x86 處理器,真的是伺服器與資料中心大戶的「最佳」選擇嗎?還是「不得不」的選擇?x86 處理器研發時間都這麼長,動輒 3、5 年,真的可以準時滿足客戶的需求?如同 x86 無法在手機平板和機上盒市場站穩腳步的理由,這才是 ARM 伺服器的切入點,只是到頭來這機會真的存在嗎?

這議題要分成套裝伺服器與資料中心這兩塊來看,兩邊的機會和條件大相逕庭。

套裝伺服器:山窮水盡疑無路

坦白講,無論怎麼想,機會都很渺小,如堅定相信機會無窮,請先提出說服自己願意用 ARM 伺服器的理由:

  • 伺服器市場剩下的市佔率很小,容不下太多廠商,最早 ARM 本家把這希望寄託在擁有 Opteron 經驗、被 ARM 連續三顧茅廬 10 年的 AMD 身上,現在看來 AMD 很難有多餘資源放在 K12,而會集中力氣在 EPYC 的後繼產品。就某種意義來看,AMD 對企圖進軍 ARM 伺服器市場的晶片廠商,是比 Intel 更大的威脅,因為 AMD 會試圖先搶著吃掉這些所剩不多的餘額。市場上老二對老大最重要的價值,不只讓老大不被反托拉斯,更可排除掉後進的破壞性創新潛在競爭者。
  • 正面與 x86 競爭並取勝的機會實在太低了,要說服現有套裝 x86 伺服器用戶琵琶別抱,一定要有很難抵抗的誘因,然後還是老話一句,不要對價格戰抱太高的期望,盡速整合重要的新技術把產品推到市場上(如諸多新世代網路界面、SDN 控制器、新型非揮發性記憶體等)會比較實際一點。
  • 更實際一點,要說服企業接受 ARM 指令集伺服器前,先確定可先在目前實質上真正的「家庭伺服器」──家用與中小企業 NAS──展現足以完全取代 x86 處理器的能力吧,不要一方面動不動 I/O 效能不足,一方面又一堆應用程式跑不太動到根本不堪用的程度,導致「搭載 ARM 晶片的 NAS = 非常不好用」的刻板印象深植人心,連這關都過不了,就別肖想企業市場了。

最基本的必備條件如下:

  • 該有的生態圈都要到位,最起碼,要做到像現行 x86 平台一樣,有統一韌體(UEFI)與電源管理(ACPI)介面,而且不能只是做到「Just Work」。應該不會有人相信,把 Linaro 裡面列出的東西都做完,就可以讓 ARM 擁有與 x86 相匹敵的「生態系統」。
  • 不能只仰賴把指令集換成 ARM 的網路處理器廠商和 x86 的既得利益者 AMD,ARM 自己需推出能跟現行主流 x86 處理器平起平坐、具備多核心高時脈延展性的高效能 64 位元核心 IP,包含伺服器等級的系統匯流排、高效率的快取一致性協定,跟主要晶圓代工廠和 EDA 工具廠商要有完美的合作,確保客戶可以快速「堆」出可賣又不會出包的產品。AMD 的 ARM 核心 Opteron 之所以「褒貶不一」(這已算是很委婉的說法),在於他們竟然花了一年多時間,「打造」一顆不是自有架構而是現成 Cortex-A57 兜出來的晶片。
  • 最重要的要素:Windows Server for ARM,最普及的微軟伺服器應用程式,像 Exchange、SQL Server 等,一個都不能少。

嗯,越寫越覺得機會越渺茫了,連讓 Intel 冷汗多兩滴都很艱難,我們把鏡頭轉向到最火熱的資料中心戰場,看看截然不同的景象。

資料中心:柳暗花明又一村

畢竟直接主宰使用者體驗,掌握作業系統的話語權,不一樣就是不一樣。

二十幾年來,雖然「Wintel」一詞營造出微軟與 Intel 看似唇齒相依同舟共濟、肝膽相照、狼狽為奸的錯覺,但微軟從來就沒有中止讓作業系統下面的「地基」擺脫 Intel 束縛、讓 Windows 無所不在的想法。Windows NT 的劈腿「前科」久遠,Itanium 的投資失敗不堪回首,2012 年的 Windows RT 屍骨未寒,微軟今年捲土重來,陪著 Qualcomm 和 Cavium 一起發表支援 ARM 的 Windows Server 與 Windows 10,更公開表示自己頭先洗下去當白老鼠進行內部資料中心測試。有了作業系統霸權的加持,終於讓這幾年倍受質疑的 ARM 伺服器陣營(與其支持者),彷彿看到隧道盡頭的光芒,只欠爬出隧道的體力。

微軟這舉動最重大的戰略意義,很簡單,也很正確:雙管齊下,同時發展 ARM 架構的「伺服器」和「個人電腦」的生態系統,一次把餅做大,重現 1990 年代 Windows NT 跟著價格效能競爭力一飛衝天的 x86 處理器,同時在個人電腦和伺服器一同崛起的發展軌跡。

微軟打 Intel 這一槍打得還滿狠,讓人不得不回憶起 2000 年內定 AMD64 為唯一支援的 64 位元 x86 指令集、2005 年放棄 Itanium 工作站、2010 年徹底放棄 Itanium 等保證讓 Intel「津津有味」的往事。

但這並不代表我們很快就會看到 ARM 架構伺服器與個人電腦迅速快速普及,在建立完整生態系、並擁有足夠市場競爭力前,仍有一道又一道光動大腦就會讓想像力哀號的難關,光要開發出足以對抗 x86 世界的 ARM 伺服器晶片,就已難如登天。所有被點名的潛在大戶關起門來進行可行性評估是一回事,實際大規模部署在營運環境又是另一回事。

Google?幾年來一直狼來了,也沒看到啥鬼影子,更何況,現在倒是看起來跟 IBM 玩 Power 玩得挺認真。只不過 Google 一向有幹大事前不動聲色、努力裝死的不良紀錄,藉由 OpenFlow 打造 SDN WAN 的 B4 網路堪稱經典,哪天突然蹦出驚世駭俗的自家 ARM 伺服器晶片,好像也不會讓人太意外,但「還沒開始就結束」的機率也不低就是了。

換個思考方向,「搞不好」第一個大規模在自家資料中心部署高效能 ARM 伺服器晶片的雲端服務業者,不是大張旗鼓的微軟,不是「被導入」的 Google,而是鴨子划水、以出貨累積數以億計的 iPhone 和 iPad 為後盾,在開發高性能 ARM 處理器已頗具心得、並公開宣稱自家晶片已足以匹敵 x86 個人電腦的蘋果。

你可以停下來發呆個幾秒讓瞬間超頻過熱的大腦冷卻下來,我會等你,就這樣。

別緊張,這只是一個小小的「可能性」而已。

重點是軟硬兼備、在過去也並非沒有伺服器平台開發經驗(PowerPC 970 的 Xserve 和特化版的 MacOS)的蘋果很有本錢這樣幹,而且這可以幫他們的資料中心節省大量採購處理器的鈔票。蘋果 iCloud 對外提供的服務,比其他開放客戶部署虛擬機和多樣化雲端儲存的業者單純多了(反正蘋果的機房「應該」已經丟掉 VMware),這也降低了更換處理器架構的門檻。

「可是蘋果連 Mac 都沒導入自家晶片,仍然繼續採用 Intel 處理器,憑什麼資料中心可以先一親芳澤,這 tone 也跳太大了吧!」一言以蔽之,除非蘋果哪天想開了,覺得 Windows 個人電腦用戶已缺乏值得他們「吸收」的潛在教徒,才有一絲一毫放棄 x86 處理器的可能性。

不過蘋果自己做自己用的好東西,大概外人也無緣一親芳澤。依照當下雲端服務一步步把企業 IT 推向 Serverless 的趨勢,蘋果也不太可能重起爐灶做套裝伺服器業務。這裡再次重申,蘋果自行打造 ARM 伺服器晶片,只是一個小小的「可能性」,Tim Cook 拿起 iPhone 撥撥計算機,算算研發投資成本,也很可能做出自己開發伺服器晶片其實對蘋果沒有太多明顯利益的結論。

最後,目標 5G 電信網路市場的 NFV(網路功能虛擬化)應用,是近期 x86 義和團的重兵集結之地,基本上,這年頭只要是乍看之下能純靠軟體搞定的高階應用,總不乏深信透過塞入一大堆 x86 處理器就迎刃而解的堅定信眾。Intel 曾幻想一堆小核心硬湊漂亮浮點運算效能,就能硬扛顯卡大任挑戰 AMD nVidia 的 Larrabee,哲人已躺平,典範沒人理。

總之,蘊含巨大客製化潛力的 NFV 是筆者「直覺」ARM 伺服器頗有機會上演八國聯軍的戰場,但這篇地雷文塞太多字了,就日後有請台灣水電工協會的不名譽會長越俎代庖,跟各位分享他的血淚教訓,身歷其境、親身體會 x86 義和團英明威武、神功附體、刀槍不入、系統代工廠紛紛沿途跪街叩拜的「空前盛況」。

創業維艱,緬懷諸先烈

本篇地雷文株連甚廣,主題九彎十八拐,每天開 86 上秋名山彎道送豆腐的藤原拓海 87% 都會開成藤原填海了。

那結論呢?

一切盡在不言中,本文就談到這,如果你內心還沒產生屬於自己的結論,就請你翻回前面,重新爬文一次吧。

以下留言開放「x86 義和團」、「RISC 十字軍」與「ARM 親衛隊」瘋狂大亂鬥,謝謝收看,我們下次再見。一次得罪光 87% 陣營,要逃命了。

喔齁。

(首圖來源:pixabay) 

關鍵字: , , , , ,