Tag Archives: 大型語言模型

「妳是女性,不可能懂量子演算法」,開發者揭露 Perplexity AI 驚人性別偏見回應

作者 |發布日期 2025 年 12 月 04 日 7:20 | 分類 AI 人工智慧 , Perplexity

11 月初,一位名為 Cookie 的開發者與 AI 模型 Perplexity 進行了一次例行對話。Cookie 經常要求 Perplexity 閱讀她的量子演算法開發工作並撰寫 GitHub 的說明文件。身為 Pro 訂閱者,她使用該服務的「最佳」模式,這意味著它會根據需要選擇使用 ChatGPT 或 Claude 等底層模型。起初,這一切運行良好,但隨著時間推移,Cookie 感到 AI 開始忽視她的指示,並重複要求相同的資訊。 繼續閱讀..

從音訊與動作推測使用者行為,蘋果新 LLM 研究揭示活動辨識新方向

作者 |發布日期 2025 年 11 月 24 日 10:33 | 分類 AI 人工智慧 , Apple

蘋果研究團隊近日發表一項新研究,指出大型語言模型(LLM)不僅能理解文字,當其接收由音訊與動作模型產生的文字描述後,也能有效推斷使用者正在進行的日常活動。這項研究揭示了蘋果在多模態 AI 感知上的布局方向,也為未來的活動追蹤、健康偵測與智慧情境推論帶來更大的想像空間。

繼續閱讀..

萬人研究揭過度依賴 AI 工具學習,知識掌握度不如傳統 Google 搜尋

作者 |發布日期 2025 年 11 月 21 日 7:20 | 分類 AI 人工智慧 , 網路

隨著大型語言模型(LLM)如 ChatGPT 的普及,越來越多人開始依賴這些工具來獲取知識。然而,最近一項由賓夕法尼亞大學(University of Pennsylvania)行銷助理教授 Shiri Melumad 及其同事完成的研究顯示,這種便利性可能會以淺薄的學習為代價。該研究涵蓋了超過 10,000 名參與者的七項實驗。 繼續閱讀..

EchoGram 攻擊現身,簡單字串就能突破主流 AI 模型防線

作者 |發布日期 2025 年 11 月 20 日 7:20 | 分類 AI 人工智慧 , 網路 , 資訊安全

近期,HiddenLayer 的安全研究人員發現一種新的攻擊技術,名為 EchoGram,這種技術能繞過多個大型語言模型(LLM)中的安全防護措施,包括 OpenAI 的 GPT-4o、Google 的 Gemini、Anthropic 的 Claude 和阿里巴巴的 Qwen3Guard 0.6B。這些防護措施通常被設計用來攔截惡意輸入和有害輸出,但研究人員發現,只需在提示中添加特定的字串,例如 =coffee 或 oz,就能輕易突破這些限制。 繼續閱讀..

超連結時代的核心:網路通訊晶片產業變革與策略布局

作者 |發布日期 2025 年 11 月 19 日 7:00 | 分類 AI 人工智慧 , 技術分析 , 晶片

面對當前大型語言模型(LLMs)、多模態模型(LMMs)高速成長,通訊晶片已成為推動資料中心網路架構革新的核心力量,AI 工作負載產生的東西向(East-West)數據流量已遠超傳統雲端架構的承載能力,迫使超大規模資料中心必須進行根本性變革,以適應對超高頻寬與極低延遲的嚴苛要求,此革新焦點正是圍繞通訊晶片,打造機架級規模(Rack-Scale)的運算系統,且核心在採用「分解式架構」(Disaggregated Architecture)和「高效能互連」技術。 繼續閱讀..

比傳統危險更複雜,AI 玩具帶來兒童隱私、心理健康新挑戰

作者 |發布日期 2025 年 11 月 18 日 8:30 | 分類 AI 人工智慧 , 資訊安全

在最新研究中, 美國公共利益研究組織(U.S. PIRG)針對四款針對 3 至 12 歲兒童的 AI 玩具進行調查,發現這些玩具存在嚴重的安全問題。這些玩具使用的生成式大型語言模型(Generative Large Language Models,LLMs)、如 GPT 系列,原本是為成人設計的,卻被嵌入到兒童玩具中,並且缺乏足夠的安全防護措施。報告指出,這些玩具不僅可能提供不當的性內容,還可能給出危險的建議,讓家長感到擔憂。 繼續閱讀..

研究指 AI 對中國有偏見,DeepSeek 模型歧視傾向竟然最嚴重

作者 |發布日期 2025 年 11 月 18 日 7:10 | 分類 AI 人工智慧 , Big Data , 網路

蘇黎世大學團隊近期於 Science Advances 發表研究,發現無論是美國、法國還是中國開發的大型語言模型(LLM),一旦評論文本被標示為「中國人」所寫,AI 對該文本評價分數會出現明顯下降,並非內容本身不合邏輯,而是單因國籍標籤產生重大偏見。這現象在中國的 DeepSeek Reasoner 模型尤其明顯,顯示偏見並非由開發國籍或政治立場主導,而是大規模語言模型難以完全消除的結構性問題。 繼續閱讀..

OpenAI 讓 ChatGPT「戒掉」破折號,打造更貼近你的 AI 助理

作者 |發布日期 2025 年 11 月 17 日 10:40 | 分類 AI 人工智慧 , ChatGPT , OpenAI

在最新的個性化更新中,OpenAI 宣布 ChatGPT 現在能夠遵循使用者的指示,避免使用長破折號(em-dash),這個改變雖然看似微不足道,但卻標誌著 AI 對於風格控制的更深層次轉變。根據 OpenAI 首席執行長山姆·奧特曼(Sam Altman)在 X 社交平台的公告,使用者只需在自定義指令(custom instructions)中添加一條規則,便能讓 ChatGPT 停止使用長破折號。 繼續閱讀..

AI 意識之謎,大型語言模型背後是統計模式還是真正的自我覺知

作者 |發布日期 2025 年 11 月 17 日 7:40 | 分類 AI 人工智慧

在當今科技迅速發展的時代,人工智慧(AI)是否能擁有意識成為科學界熱烈討論的話題。隨著大型語言模型如 ChatGPT 的出現,許多人開始懷疑這些 AI 是否具備與人類相似的自我意識。然而,神經科學家們指出,想要證明 AI 具備意識的挑戰重重,首先需要對意識本身有更深入的理解。 繼續閱讀..

AI 也能深度思考?新技術「詮釋性提示」解鎖生成式 AI 真正潛力

作者 |發布日期 2025 年 11 月 15 日 9:30 | 分類 AI 人工智慧

在當今的人工智慧(AI)領域,提示工程(Prompt Engineering)正迎來一種新技術,稱為「詮釋性提示」(Hermeneutic Prompting),這個方法被認為能夠解鎖生成式 AI 的真正價值。這種技術的核心在於促使 AI 以循環的方式進行思考,而非僅依賴傳統的線性解析。這樣的方式不僅能提高 AI 的回答品質,還能讓使用者獲得更全面的見解。 繼續閱讀..

終結 AI「隨意編碼」!MIT 提出概念化架構,解決 LLM 破壞既有功能難題

作者 |發布日期 2025 年 11 月 14 日 8:10 | 分類 AI 人工智慧 , 軟體、系統

麻省理工學院(MIT)研究人員最近提出一種新的軟體模型,旨在改善人類和人工智慧(AI)代碼生成器的編碼過程,讓軟體開發變得更透明和可讀。這項研究由 Eagon Meng 和 Daniel Jackson 共同撰寫,題為《你所見即所做:可讀軟體的結構模式》(What You See Is What It Does: A Structural Pattern for Legible Software)。 繼續閱讀..

模型愈大愈像人是迷思?AI 回覆真實度未必隨規模提升

作者 |發布日期 2025 年 11 月 12 日 7:40 | 分類 AI 人工智慧 , 社群 , 網路

在社群媒體上,當你遇到一個異常禮貌的回覆時,或許應該多留意。最近,國際研究團隊發表一項研究,揭示了人工智慧(AI)模型在社群媒體對話中仍然容易與人類區分,尤其是過於友好的情感語調成為最明顯的識別特徵。這項研究測試了九種開放權重的大型語言模型,並發現這些模型生成的回覆在 Twitter/X、Bluesky 和 Reddit 上的識別準確率達到 70% 至 80%。 繼續閱讀..

時薪 4,650 元搶人,AI 公司招募金融專家助訓練

作者 |發布日期 2025 年 11 月 10 日 11:00 | 分類 AI 人工智慧 , 人力資源

隨著人工智慧技術的迅速發展,AI 訓練公司正積極尋求金融專業人士的協助,以提升其模型的準確性。根據《商業內幕》的報導,這些公司為擁有金融背景的專業人士提供高達每小時 150 美元(約台幣 4,650 元)的報酬,吸引他們參與 AI 訓練工作。 繼續閱讀..