首座 DGX H100 / H200 伺服器!陽明交大啟用 AI 高速運算平台

作者 | 發布日期 2024 年 08 月 06 日 13:02 | 分類 AI 人工智慧 , GPU , 伺服器 line share Linkedin share follow us in feedly line share
首座 DGX H100 / H200 伺服器!陽明交大啟用 AI 高速運算平台

為了強化 AI 研究領域的實力,陽明交大今日舉辦 AI 高速運算平台啟用典禮,成為台灣大專院校首座 NVIDIA DGX H100 / H200 伺服器,平台包括兩台 H100 和三台 H200 伺服器,擁有 40 片 GPU 運算卡,算力達 1.7PFLOPS(每秒千兆次浮點運算)。

陽明交大校長林奇宏表示,學校積極規劃建置一座 AI 高速運算平台,主要是由尊博科技(JUMBO)執行董事許順宗慷慨捐贈 1,000 萬元,用於母校購置 GPU 伺服器,藉由提升學校在 GPU 高速運算資源的建置,迎向未來 AI 時代的挑戰。

陽明交大資訊技術服務中心主任施仁忠表示,平台已配備兩台 DGX H100 伺服器,未來半年內將陸續整合三台 DGX H200 伺服器,並將引入 AI 高速平行檔案系統加入陣列,搭配無線頻寬交換機,使總共 40 片 H100 / H200 GPU 運算卡可叢集使用,增加多張 GPU 運算卡使用的數量和靈活度。

陽明交大電機系教授簡仁宗表示,目前實驗室研究團隊主要在做 AI 模型訓練,過去需要跑一天的實驗結果,使用校方最新建置的 AI 高速運算平台後,只需要花兩個多小時即能產生結果,大幅減少實驗的等待時間,並在四倍多記憶體擴充訓練出效能更強預測更準的 AI 模型。

陽明交大建置的 AI 高速運算平台已有實用案例,主要是研究影像辨識系統設計的電機資訊國際學位學程博士生冉達恩,使用平台一個月後,因為得到足夠的資料,已將結果撰寫成論文,投到國際會議及國際期刊中發表。

陽明交大 AI 高速運算平台目標在整合和提供校內所需的 GPU 運算資源,提升全校運算資源建置的效率,並搭配校內綠能機房,電力使用效率(Power Usage Effectiveness,PUE)可達 1.58,將可有效節省能耗、減少碳排,維運團隊將持續朝向資源共享和節能減碳的目標邁進。

(首圖來源:陽明交大)

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》