生成式 AI 軟硬體協同發展,IC 設計廠搶商機

作者 | 發布日期 2023 年 03 月 08 日 11:00 | 分類 AI 人工智慧 , IC 設計 , 軟體、系統 line share follow us in feedly line share
生成式 AI 軟硬體協同發展,IC 設計廠搶商機


由 ChatGPT 帶動的生成式 AI 產業夯,除了現有的諸多討論之外,更多的焦點應放在下一步 AI 會長得怎麼樣?未來的生成式 AI 有什麼可能性?

人類對於AI的想像早已在一些電影當中顯見,像是1984年《神通情人夢》(Electric Dreams),或是2013年的《雲端情人》(Her)。但,什麼時候能夠更加優化機器,從現在一問一答的模式,變成像是電影當中的超級助理,擁有自我人格意識,而且能成長的AI系統,這樣更像人類的可能性持續發展並演進當中。

從技術角度來看,大型語言模型(LLM)是透過生成式網路所建立,事實上,從過去語音、影像辨識,延伸到給機器一個指令並提供答案的方式,整體運算量高出許多,也意味著需要有更大的運算能力支持,即便仍需要運算時間,即時性仍有進步空間,但對現階段的AI發展與需求來說是較其次的目標。

業內人士分析,從晶片端來說,目前仍是透過NVIDIA所提供的晶片與平台進行,要讓機器變得更像是人,模型的優化變得更加重要,當資料量增加、訓練量增加之後,模型也會逐變得更加完整,隨後才能開發其他的晶片來跑更客製化的模型。

至於AI技術怎麼往下進行,業內普遍認為,由於目前模型的效能、準確度、使用方便性等等都還在演化、發展的過程中,因此當模型更優化的時候,才會再回到硬體端,晶片設計公司才會以有效率的方式完成相應的硬體開發。

不過,軟硬體之間的相互配合也是重要的,硬體能否提供具有強大運算力的平台,也是關鍵之一。像是由於需要大量的資料量運行、資料存取等需求,使得高速運算、高速傳輸、記憶體架構、晶片架構等都有再優化的空間。

以晶片架構來說,由於對晶片尺寸、良率等要求使得傳統系統單晶片(SoC)轉向使用異質整合的架構小晶片(Chiplet)設計,以實現低延遲性、低功耗、高運算等性能,兼顧軟硬體協同最佳化的需求。

不過,如果用軟體來定義,AI分成訓練(Training)、推論(Inference)兩種類型,例如自駕車來說,透過道路學習,伺服器處理大量資料後,進而改變後續的行為。而邊緣運算當中可以分成近、中、遠,依照與資料中心的距離相對概念定義,從IoT裝置、小型區域到遠端的資料中心,各具功能,也有不同的運算能力,也讓伺服器變得更加重要。

除了要讓AI好好運算的關鍵重要CPU之外,非x86架構的晶片做為輔助加速器也更為重要,像是FPGA、ASIC、GPU等。概括性來說,FPGA為現場可程式化邏輯閘陣列,可隨時編程、彈性設計、功耗低,用於推論(Inference)可達到優於其他晶片類型;ASIC則是效能最高的方案,能最符合客製化需求,但一次性的成本高,特別是用於消費性產品;GPU則適合於圖像訓練,但功耗也同樣較高,用於訓練(Training)相對適合。

不過,目前開放原始碼釋出的大型語言模型,多數仍以英文為主要優化的對象,繁體中文的語言模型相對不足,因此,聯發科轄下的前瞻技術研究單位聯發創新基地、中央研究院詞庫小組和國家教育研究院三方所組成的研究團隊,開放全球第一款繁體中文語言模型到開源網站提供測試,可應用於問答系統、文字編修、廣告文案生成、華語教學、客服系統等。盼能在硬體優勢上,強化軟體的技術能力。

另外,在AI趨勢之下,伺服器、高速運算、高速傳輸的需求連帶提升,因此純IP廠、ASIC廠商可望擁有優勢。

以純IP廠商來說,晶心科總經理暨技術長蘇泓萌表示,晶心科已打入資料中心AI加速器,擴充指令集,以及客製化的機制可以更有效率的傳輸資料,減少延遲性,也讓效能發揮,這些也讓客戶認為RISC-V比Arm、x86架構更有優勢。

且在高階終端產品當中,高速傳輸規格升級的態勢明確,包含伺服器、AI、高速運算等領域當中,因此像是純IP廠商M31也有望隨著PCIe Gen5、USB4市場滲透率持續提升之下,新接案的動能不減。

ASIC廠商創意、世芯-KY等也在高速運算需求提升之下,擁有先進製程技術優勢,在高速運算當中,ASIC做為加速器的角色,因此許多國際大型業者與ASIC廠商共同合作,更具有快速開發、成功性高、客製化、彈性化的特色,因此ASIC市場規模也是逐年放大。

整體來說,生成式AI技術持續演進,軟體之間技術相互配合與優化,提供人類對未來科技生活的想像,也逐步改變人類與電腦運算之間的關係,應持續觀察後續產業的變化。

(本文由 MoneyDJ新聞 授權轉載;首圖來源:Created by freepik

延伸閱讀: