蔡力行:聯發科攜手 Arm 與輝達,四大支柱滿足 AI 無所不在需求

作者 | 發布日期 2024 年 06 月 05 日 6:00 | 分類 AI 人工智慧 , 半導體 , 物聯網 line share Linkedin share follow us in feedly line share
Loading...
蔡力行:聯發科攜手 Arm 與輝達,四大支柱滿足 AI 無所不在需求

聯發科執行長蔡力行表示,AI 引領科技發展,生成式 AI 更使 AI 無所不在。聯發科先進運算將從邊緣裝置端到雲端,推動無所不在混和式 AI 運算。

蔡力行 COMPUTEX Taipei 2024 主題演講表示,為因應 AI 無所不在需求,聯發科四大支柱從邊緣至雲端各類高性能運算單元、AI 加速器各類領先技術、實現邊緣至雲端混合式 AI 的先進無線網路技術,以及堅強的全球生態系及供應鏈長期夥伴合作關係。

蔡力行解釋四大支柱。從邊緣至雲端的各類高性能運算單元,聯發科過去五年不斷突破,行動晶片 CPU 性能提升 2.6 倍、GPU 性能提升 6 倍、NPU 性能更大幅提升 18 倍,且系統功耗在重度遊戲和 AI 攝影減少 60%。顯示聯發科技術創新和能源效率的領先實力。

最新旗艦手機晶片天機 9300+ 的 NPU AI 運算力達 68TOPS,比 AI PC NPU 要求 40TOPS 還高。聯發科將高性能運算延伸至汽車智慧座艙晶片,並與輝達合作,結合聯發科高性能運算及輝達 AI 和繪圖運算領先優勢,提升 CPU 及 AI 性能,大語言模型延遲更低和體驗更佳。

此外,聯發科將把邊緣運算優勢延伸至雲端,Arm 執行長 Rene Hass 親臨提到 AI 影響力相當廣泛,聯發科與 ARM 合作是抓住市場機會的關鍵。聯發科宣布透過 Arm Neoverse 運算子系統 (CSS), 加速雲端運算晶片設計與開發。

AI 加速器各類領先技術,因應快速增加 AI 訓練與推論需求,雲端服務商除了積極佈建資料中心,也尋求更客製化解決方案以最佳化特定領域性能,並降低總擁有成本,聯發科預估客製化 AI 雲端運算市場規模自 2023 年約 76 億美元,成長至 2028 年 450 億美元,多數為 AI 加速器。

聯發科有許多雲端 AI 客製化晶片解決方案 IP,占利基性市場,幫助雲端廠商降低總擁有成本,如 Interconnect SerDes、UCIe、D2D 及 Optical 等高速傳輸介面 IP。3 及 2 奈米先進製程、2.5D / 3D Chiplet 先進封裝,以及 HBM 等都有堅強開發及整合能力。

蔡力行強調,雲端運算最關鍵的 SerDes,聯發科開發,2022 年推出 112G 技術後,今年有市場最先進 224G IP,未來持續開發 400G 及 CPO。聯發科致力提供可持續、可擴展,且具能源效率的解決方案,提供客戶優異 AI 加速器解決方案。

實現混合式 AI 先進無線網路,蔡力行指出,未來 AI 運算在邊緣端及雲端都需部署,且為了有效發揮混合式 AI 優勢,邊緣端與雲端需建立高速可靠連結,聯發科具備所有關鍵有線及無線技術,5G 部分,聯發科由手機延伸至 FWA、PC、汽車及物聯網裝置等,還有 5G RedCap、5G NTN 衛星寬頻、 Wi-Fi 及乙太網路等無線及有線技術。

混合式 AI 架構下,AI 無所不在,可語音互動並能不斷學習進化的 AI 個人助理,及直接執行大語言模型的車載語音助理,多螢幕互動並偵測駕駛警覺性。這些都是 AI 可能的深刻變革,改善使用者生活效率及品質。聯發科生成式 AI 應用還有照片物體移除、背景生成,以及即時生成式 AI 動畫與圖片產生等。

最後,聯發科有堅強全球生態系及供應鏈長期夥伴合作關係,積極與全球 AI 產業領導者合作如 Arm、台積電、輝達、Google、Meta、百川智能及阿里雲大語言模型,共同推動無所不在 AI。輝達執行長黃仁勳也親自到場,強調與聯發科合作對開發汽車市場的重要性,兩家公司大型語言模型訓練、邊緣 AI 裝置等領域會有更多合作機會。

(首圖來源:聯發科)

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》