以往搭載 SoC 的系統效能普遍低落且欠缺升級性,往往只能在一般日常使用,鮮少被用於專業或是高階運算。且在 AI 當道的現在,GPU 才是高階運算的主角。受限於晶片規模的 SoC 理論上沾不到邊,但沒想到 SoC 在地端 AI 應用的角色越來越吃重,究竟是為什麼?
SoC能夠在高階運算領域逐漸嶄露頭角,其實是始於蘋果推出自研的M系列晶片。當然M系列晶片的效能和效率都很優異,但真正讓SoC脫穎而出的,是同期晶片內嵌式GPU的效能大幅躍進,以及和整合式記憶體(Unified Memory)的配合。
其實所謂的整合式記憶體,就只是讓CPU和GPU共用記憶體,讓記憶體既可以是RAM,也可以是VRAM。整合式記憶體並不是新玩意兒,好比英特爾的U系列處理器,裡面除了CPU也有GPU(俗稱內顯),且GPU的VRAM共用主記憶體。
但以往的內顯效能不強,頂多做為日常使用,不太可能處理更高階的圖形運算如電競甚至是AI,所以需要的VRAM也不大。然而不只是M系列晶片,包含隔壁x86陣營的AMD在內顯的效能開始了有了長足的進步,也讓內顯足以承擔更繁重的運算,VRAM的需求也隨之而來。
真要說2023年可能是SoC正式躍上高階運算領域的一年。當年AMD推出了首款電競掌機用SoC Z1 Extreme,搭載於華碩的Ally,具備16GB LPDDR5 6400整合式記憶體,最多可分出8GB為內顯(780M)所使用,讓SoC首度和講求效能的電競沾上邊。
同年蘋果推出搭載M2 Ultra的Mac Pro、Mac Studio,以及之後搭載M3 Max的MacBook Pro首度支援高達128G的整合式記憶體,也讓SoC和當今最重要的應用有了關聯:AI。大家應該都知道VRAM的大小對於AI應用至關重要,最好是能讓整個AI模型塞進VRAM才能擁有最低的延遲和最高的Token。
放眼應用於AI地端(工作站)的GPU,眼下最強的RTX Pro 6000 Blackwell也「只」具備了96GB的VRAM,且一張就要價超過30萬台幣。但如今搭載M5 Max的MacBook Pro就算把記憶體擴充到128G也只要不到20萬,塞進一個70B的Llama3模型綽綽有餘,搭配512G的記憶體頻寬,以蘋果為首的SoC展現了不俗的效能以及超高的CP值,也讓NVIDIA和AMD陸續加入戰場,推出GB10和Strix Halo搶食地端AI應用這塊大餅。
儘管這些新世代的SoC在專業領域逐漸嶄露頭角,但對於出貨量更大的消費性PC來說這些晶片似乎都強過頭了,一般消費者根本用不到。其中最「超值」的Strix Halo也要將近十萬。但誠如筆者在前面提到的,SoC重要性逐步提升的另一個關鍵是日益強大的內顯。也期待之後在消費性市場也能迎來更多像Panther Lake這樣具備強勁內顯的SoC,持續提升SoC的可能性。
(首圖來源:shutterstock)






