Tag Archives: 大型語言模型

叡揚知識管理系統結合大型語言模型,企業數位大腦 AI 再創新

作者 |發布日期 2024 年 04 月 09 日 14:14 | 分類 AI 人工智慧 , 雲端

生成式 AI 應用在知識管理領域議題備受關注,而叡揚資訊知識管理系統推出智能生成全新功能,提供客戶企業級最彈性、最安全、最嚴謹的問答式知識搜索。Vitals ESP 知識管理系統產品上市 20 週年,兩岸三地已累積 800 家以上企業採用,日前舉辦使用者大會,聚集許多知識管理系統用戶,發表系統新功能與未來展望,並邀請標竿客戶分享經驗。 繼續閱讀..

新創 Covariant 推出 RFM-1 生成式 AI 模型,文字語音輸入操控工廠機器人

作者 |發布日期 2024 年 03 月 14 日 8:10 | 分類 AI 人工智慧 , 尖端科技 , 機器人

美國加州大學柏克萊分校(UC Berkeley)衍生的 AI 機器人新創公司 Covariant 日前宣布推出 RFM-1 機器人基礎模型,除了現階段已在倉庫部署許多機器人之外,希望透過模型為即將到來的數十億個遍佈製造業、食品加工、回收、農業、服務業,甚至家庭機器人提供先進支援,並賦予像人類的思考能力。  繼續閱讀..

極低功耗運行 GPT 2!韓國開發全球首款「類似人腦」超高效 AI 半導體

作者 |發布日期 2024 年 03 月 08 日 12:20 | 分類 AI 人工智慧

韓國研究人員根據模仿人腦結構和功能的原理,開發世界上首款人工智慧(AI)半導體,能以超高速、極低功耗運行,用於處理大型語言模型(LLM)。該半導體成功運行 GPT 2,功耗僅 Nvidia A100 的 1/625,大小僅 A100 的 1/41,韓媒認為這是全球 AI 半導體大戰升級的關鍵進展。 繼續閱讀..

Nvidia 最大夢魘來臨!AI 聊天機器人執行 Groq LPU 比 GPU 快十倍

作者 |發布日期 2024 年 02 月 23 日 14:45 | 分類 AI 人工智慧 , GPU , 晶片

不論何種 AI 應用,速度非常重要。當我們要求熱門 AI 聊天機器人撰寫文章、電子郵件或翻譯文稿時,我們會希望輸出結果愈快愈好。如今一家專為運行 AI 語言模型設計客製化硬體,並致力提供更快 AI 的 Groq 公司,能以比普通人打字速度快 75 倍的速度呈現結果。  繼續閱讀..

AI 時代的版權之爭:《紐約時報》對抗 OpenAI 和微軟

作者 |發布日期 2024 年 01 月 09 日 8:00 | 分類 AI 人工智慧 , 數位內容

《紐約時報》對 OpenAI 和微軟發起了一起劃時代的訴訟,指控這些科技巨頭未經授權就使用其文章來訓練自家的 AI 模型,這起案件不僅可能影響新聞業的未來,還可能影響更廣泛的數位內容創造方式。這起訴訟將對一般大眾造成什麼影響?它會推動科技巨頭負起責任開發 AI 的新時代,還是會引發對資訊自由流通的更嚴格控制? 繼續閱讀..

「GPT-4 變笨」不只 OpenAI 苦惱,所有大模型與人類相處越久就越蠢

作者 |發布日期 2024 年 01 月 08 日 8:00 | 分類 AI 人工智慧 , 軟體、系統

ChatGPT 發表一年多,全世界累積超過 1.8 億使用者,越來越多人頻繁使用,但近幾個月 GPT-4「變笨」、「變懶」疑問不絕於耳,因昔日大聰明回答問題時逐漸失去理解力和準確性,不時冒出牛頭不對馬嘴的答案,或乾脆擺爛不回答。 繼續閱讀..

CPU 資源太滿塞不下,傳蘋果研究將 LLM 存在 NAND

作者 |發布日期 2023 年 12 月 22 日 11:09 | 分類 AI 人工智慧 , Apple , 記憶體

為了發展自家生成式 AI,蘋果一直在測試大型語言模型(LLM),但蘋果同時要思考的是,要如何將 LLM 塞進手機與筆電。現在有消息稱,LLM 對 CPU 與記憶體資源負荷太重,蘋果正嘗試將 LLM 存在 NAND 快閃記憶體,以實現多裝置輕鬆存取的目標。

繼續閱讀..

AI 公司用網路爬蟲挖資料餵養 LLM,使「被挖」媒體醞釀不對等抗爭

作者 |發布日期 2023 年 12 月 22 日 8:30 | 分類 AI 人工智慧 , Google , Microsoft

越來越多的公司正試圖避免自己家的資料被網路爬蟲抓取和保存,以前是像 Google 這樣的大型搜尋引擎爬蟲,現在則是 AI 資料庫的爬蟲。包括彭博、紐約時報等大型媒體,正在阻止 OpenAI 與其他相關 AI 資料庫的網路爬蟲訪問他們的網站,以保護他們的內容不會被用來餵養人工智慧技術的語言模型。

繼續閱讀..