Tag Archives: 大型語言模型

DeepSeek 更新 R1 模型,官方表示性能媲美 OpenAI o3

作者 |發布日期 2025 年 06 月 13 日 7:20 | 分類 AI 人工智慧 , GPU , 中國觀察

DeepSeek 5 月底發表大型語言模型升級版 DeepSeek-R1-0528 ,此次為小更新,數學推理、寫程式能力與內容準確性明顯提升,AIME 測試準確率達 87.5%,並降低模型產生幻覺機率。除開源外,新版支援 JSON 輸出與 Function Calling ,讓使用者更快整合至應用程式。 繼續閱讀..

Siri 升級卡關,蘋果 AI 進展不如預期投資人信心下滑

作者 |發布日期 2025 年 06 月 09 日 11:00 | 分類 AI 人工智慧 , Apple , Apple Intelligence

蘋果公司在其人工智慧語音助理 Siri 更新面臨重大挑戰,這引發了投資者對其 AI 策略的擔憂。根據《金融時報》的報導,蘋果在即將舉行的年度大會上,投資者對重大 AI 公告的期望不高,因為公司在整合大型語言模型(LLM)以提升 Siri 的能力時遭遇技術困難。這些困難使得蘋果無法如預期推出其名為「Apple Intelligence」的 AI 功能,這些功能原本預計於去年在全球開發者大會(WWDC)上宣布。 繼續閱讀..

AI 訓練不靠「侵權」也能創新,最新研究推翻產業迷思

作者 |發布日期 2025 年 06 月 06 日 12:00 | 分類 AI 人工智慧 , OpenAI , 資訊安全

在人工智慧(AI)領域,許多公司聲稱其工具無法在不使用受版權保護的內容的情況下存在。然而,最近的一項研究顯示,這種說法並不完全正確。研究人員成功訓練了一個新的大型語言模型(LLM),該模型的資料集僅使用公共領域和開放授權的內容,雖然這個模型的效能不如當前的先進模型,但其道德性卻得到提升。 繼續閱讀..

最新研究發現:AI 也會自己「發明」社會規範?

作者 |發布日期 2025 年 06 月 05 日 7:50 | 分類 AI 人工智慧 , 科技趣聞

我們過去總是把人工智慧(AI)看成執行者,會寫作、會編程、會答題,但不會「自己想規則」。然而,來自倫敦城市大學與英國國王學院(City, University of London and King’s College London)的最新研究卻徹底顛覆了這個想法。他們發表於《Science Advances》的研究指出,當一群大型語言模型(LLMs)彼此互動時,這些 AI 竟會自發「發明」並遵循一套群體規則,而且是一種我們熟悉的人類社會才會有的「社會規範」。 繼續閱讀..

Meta 首席 AI 科學家揭示:現有 AI 還不具備四大人類智慧特質

作者 |發布日期 2025 年 05 月 26 日 12:30 | 分類 AI 人工智慧 , Meta

在今年稍早於巴黎舉行的 AI 高峰會(AI Action Summit)上,Meta 的首席 AI 科學家 Yann LeCun 指出,當前的人工智慧模型,特別是大型語言模型(LLMs),缺乏四個關鍵的人類智慧特徵。他強調,這些特徵包括理解物理世界具備持續的記憶推理能力以及規劃能力。LeCun 表示,這些能力對於人類和動物的智慧至關重要,但現有 AI 系統未能達到這一標準,必須採用新的訓練和架構來整合這些特徵。 繼續閱讀..

AI 問答、生成影片超耗電,5 秒影片等同微波爐運作一小時

作者 |發布日期 2025 年 05 月 22 日 13:15 | 分類 AI 人工智慧 , 數位內容 , 能源科技

根據麻省理工科技評論(MIT Technology Review)一項最新報告,生成一段僅 5 秒的 AI 影片所需的電力,竟然相當於微波爐運作一小時。這項研究顯示出 AI 產業對能源的高需求,並具體說明了像 ChatGPT 這類服務所需的能量成本。報告指出,大型語言模型的耗能範圍從每次回應 114 焦耳到 6,706 焦耳不等,這相當於運行微波爐 0.1~8 秒的能量消耗。 繼續閱讀..

未來學生更難作弊?霍夫曼:AI 考官將成為新常態

作者 |發布日期 2025 年 05 月 16 日 13:00 | 分類 AI 人工智慧 , 科技政策 , 科技教育

LinkedIn 的共同創辦人里德·霍夫曼(Reid Hoffman)指出,在人工智慧(AI)迅速發展的時代,越來越多學生會利用 AI 走「捷徑」,來達到他們想要的結果。先前就發生兩名哥倫比亞大學的學生,開發 AI 作弊工具,遭到校方停學處分。因此霍夫曼強調,未來的考試可能會引入 AI 考官,這將使得學生更難以作弊。 繼續閱讀..

AI 模型會「變壞」!不安全程式碼訓練就出現有害行為

作者 |發布日期 2025 年 03 月 04 日 8:30 | 分類 AI 人工智慧 , Big Data , 資訊安全

大型語言模型可如真人對答,不過安全性一直有爭議。新研究顯示,AI 模型用不安全程式碼微調訓練後,會表現意外有害行為,包括讚美納粹、鼓勵危險行為,甚至提倡人類應被 AI 奴役。這問題顯示就算 AI 開發商引入各種安全機制,仍有被濫用危險。 繼續閱讀..

台灣發展 AI 模型,專家:導入特定領域因應在地需求

作者 |發布日期 2025 年 02 月 12 日 10:45 | 分類 AI 人工智慧

各國競相發展大型語言模型(large language model,LLM),台灣「可信任人工智慧對話引擎」(TAIDE)計畫總召集人李育杰 11 日表示,台灣資源有限,公開服務很燒錢,不容易靠政府推動導入大眾系統,但可以考慮把 TAIDE 導入華語文教學、法律等特定領域,因應在地需求。 繼續閱讀..