訓練時間有望縮短至幾分鐘!台積電或將生產 Cerebras 的「超級」AI 晶片

作者 | 發布日期 2020 年 07 月 09 日 9:53 | 分類 AI 人工智慧 , 晶圓 , 晶片 line share follow us in feedly line share
訓練時間有望縮短至幾分鐘!台積電或將生產 Cerebras 的「超級」AI 晶片


根據報導,台積電推出 3D SoIC 後端服務後,還開發主要用於超級計算 AI 晶片的 InFO SoW(晶圓系統)技術,並有望在兩年內以 InFO(整合式扇出封裝技術)衍生製程開始量產。

之前台積電已與 Cerebras 合作,InFO 衍生製程開始量產意味著台積電可能 2 年內開始商業化生產專屬超級電腦的 AI 晶片。這款從去年推出就備受矚目的超級 AI 晶片若商業化,機器學習或將邁入新階段。

製造「超級」AI 晶片,面臨互連難題

此次台積電計劃生產的 AI 晶片,就是新創人工智慧公司 Cerebras Systems 去年推出的世界最大半導體晶片,擁有 1.2 兆顆電晶體,40 萬顆核心,面積為 46,225 平方公釐,晶片上記憶體 18G,是目前面積最大晶片 NVIDIA GPU 的 56.7 倍,並多了 78 顆計算核心。

據 Cerebras 說法,這是目前唯一百萬級電晶體晶圓級處理器,基於此晶片推出的 CS-1 系統可提供比其他系統更少空間和功耗計算效能,相當於標準資料中心機架三分之一,同時取代數十萬個 GPU 的需求。

(Source:Cerebras

Cerebras 之所以推出這款 AI 晶片,主要是針對深度學習的工作負載。當今人工智慧發展受訓練模型花費時間的限制,如何縮短訓練時間是整個產業共同的問題。目前大多數晶片都是在 12 英吋矽晶圓上製成的晶片集合,並在晶片工廠批量加工,但 Cerebras 晶片卻是採用互連法,將所有核心放在同一塊矽晶圓上,使資料移動快速且低功耗。

另一方面,Cerebras 將所需資料儲存在處理器晶片而非單獨儲存晶片,意味著晶片能將原本需幾個月的訓練縮短到幾分鐘,推理能力也更強。

所有改進都指向製造的晶片越大越好,但晶片越大,可能出現的缺陷也就越多,就要求製造晶片的過程中,盡可能解決難題。例如,光刻工具旨在將特定圖案一遍又一遍投射到較小的矩形框內,由於在晶圓的不同位置刻蝕不同圖案的成本和難度,限制了在同一晶圓構建不同的系統。

對於超級計算晶片而言,最大的挑戰在於晶片互連。這要求晶片製造商在每個晶片周圍留下空白矽窄邊,稱為劃線。基於這難題,Cerebras 與台積電合作。

台積電先進封裝技術有望達成「超級」AI 晶片量產

台積電與 Cerebras 的合作,整合式扇出型封裝技術(InFO)發揮了重要作用。

而整合式扇出封裝技術是什麼?

從技術特點來看,先進晶圓封裝技術分為扇入型(Fat-in)和扇出型(Fan-out)兩種,傳統晶圓級封裝多採扇入型架構,完成再布線並形成與外部互連的焊球,主要應用於 I/O 引腳數量較少的積體電路晶片。但隨著終端機用戶對產品效能要求日趨增多,摩爾定律下製程節點不斷推進,滿足要求的晶片需要更多 I/O 引腳,傳統扇入型封裝已不符合要求,扇出型晶圓級封裝方式應運而生。

扇出型封裝突破 I/O 引出端數目的限制,透過晶圓重構增加單個封裝體面積,之後應用晶圓級封裝的先進製程完成多層再布線和凸點製備,切割分離後得到能與外部效能互連的封裝體。

(Source:台積電)

不同廠商的技術各有差異,就台積電而言,扇出型晶圓封裝領域開發出整合式扇出封裝技術(InFO),並於 2014 年宣布量產。台積電採用的扇出型封裝技術,捨棄了原本扇入型封裝使用的印刷電路版,直接將 NAND、邏輯 IC、RF 射頻等元件嵌入晶圓,意味著靠扇出型封裝技術得到的晶片厚度和成本都減少。

根據台積電的說法,扇出型封裝技術使晶片厚度減少 20%,成本降低 30%,同時互連功耗降低 15%。以較小功耗達成高連線性,這正是超級計算 AI 晶片所需解決的問題。

儘管扇出型封裝技術比扇入型封裝先進,但考慮到安全性等因素,目前市場只有手機應用處理器使用扇出型封裝,CPU 和邏輯 IC 等依然使用扇入型封裝。基於成本與厚度優勢,未來可能有越來越多晶片採用扇出型封裝技術。此次台積電與 Cerebras 合作,也為扇出型封裝技術開拓新市場。

價高但值得付出

預計 Cerebras 晶圓的成本為 200 萬美元,價格昂貴,就算量產也無法短時間內大量普及,但學習能力和推理能力確實值得期待,這似乎是 cyber 時代機器走向人類的一大步,如同我們對 5G 世界的想像。當機器學習更普及,我們的世界將會變成什麼樣子?

(本文由 雷鋒網 授權轉載;首圖來源:Cerebras

延伸閱讀: