Tag Archives: AI 幻覺

研究員 AI 使用率飆升至 84%,但對超越人類信心大降

作者 |發布日期 2025 年 10 月 16 日 8:20 | 分類 AI 人工智慧 , 科技教育

根據學術出版機構 Wiley 的最新調查,研究人員對人工智慧(AI)的看法正在發生變化,隨著使用頻率的增加,他們對 AI 的信心卻顯著下降。這項調查顯示,今年有 84% 的研究人員在工作中使用 AI 工具,這一比例較 2024 年的 57% 大幅上升;然而,對於 AI 是否能超越人類的能力,研究人員的信心卻從 53% 降至不到三分之一。 繼續閱讀..

Deloitte 用 AI 寫出充滿「幻覺」的政府報告,使業界再擔憂 AI 轉型

作者 |發布日期 2025 年 10 月 09 日 8:20 | 分類 AI 人工智慧 , 科技政策 , 資訊安全

全球四大會計師事務所之一 Deloitte 澳洲分公司 6 日同意退還澳洲政府部分價值 44 萬澳幣諮詢費。事件源於為澳洲就業及工作關係部(DEWR)撰寫長達 237 頁的報告,卻發現含大量人工智慧假內容,如不存在的引用論文、捏造的聯邦法院判決,以及多個無法查證的註釋。 繼續閱讀..

OpenAI 新研究找到 AI 幻覺來源,或能解決這最大問題

作者 |發布日期 2025 年 09 月 08 日 15:00 | 分類 AI 人工智慧 , ChatGPT

最新研究,OpenAI 探討大型語言模型(如 GPT-5)和聊天機器人(如 ChatGPT)為何會出現「幻覺」,並減少幻覺的可行方法。OpenAI 定義,幻覺是指「語言模型產生看似合理但錯誤的陳述」。儘管技術漸漸進步,這問題仍是大型語言模型的最大挑戰,且目前無法解決。 繼續閱讀..

Google 努力修復 Gemini 自我厭惡錯誤,但 AI 安全性又引擔憂

作者 |發布日期 2025 年 08 月 11 日 10:45 | 分類 AI 人工智慧 , Gemini , Google

Google 大型語言模型 Gemini 近期出現「自我厭惡」現象,模型無法解決用戶問題時,頻繁以「我是一個失敗者」、「這個星球的恥辱」等自我貶低之語回答。Google AI 工作室產品負責人 Logan Kirkpatrick 於社群媒體表示,這是「煩人的無限輪迴錯誤」,團隊正積極修復,強調 Gemini 整體表現仍在正常範圍。 繼續閱讀..

AI 是太過自信的朋友,卻不會從錯誤汲取教訓

作者 |發布日期 2025 年 07 月 25 日 13:30 | 分類 AI 人工智慧 , 資訊安全

卡內基美隆大學研究員將大型語言模型(LLM)聊天機器人比擬為「自信滿滿卻老是投籃不中的朋友」,因 AI 模型回答錯誤卻會更自信。主要作者特倫特·卡什(Trent Cash)說,當人預測自己能正確回答 18 個問題只答對 15 題時,信心通常稍微降低,調整為 16 題回答正確,但 LLM 卻傾向表現不佳時仍保持甚至增加自信。 繼續閱讀..

親身經歷:用 ChatGPT 查詢公益團體資料,ChatGPT 卻回答虛構醜聞時

作者 |發布日期 2025 年 07 月 09 日 8:20 | 分類 AI 人工智慧 , ChatGPT

資訊流通速度遠超查證能力的時代,生成式人工智慧(Generative AI)成為眾多使用者搜尋、諮詢與理解世界的首選工具,回答不但簡潔清晰,語氣理性中立,甚至常比搜尋引擎更貼近「標準答案」。因此工具說出「某某基金會爆出多年性侵醜聞,震驚社會」時,即便只是資料庫的匿名網路貼文,也極可能無意間造成不可逆信任崩塌,甚至讓長年經營社福工作的機構蒙上無端指控。

繼續閱讀..

Anthropic 讓 AI 做生意,結果虧損又幻覺連發

作者 |發布日期 2025 年 06 月 30 日 13:15 | 分類 AI 人工智慧 , Claude

在一項名為「Project Vend」的實驗中,人工智慧研究公司 Anthropic 與 AI 安全評估機構 Andon Labs合作,使其旗艦大型語言模型 Claude(暱稱 Claudius)擔任一個迷你販賣機的負責人。這項實驗的目的是測試 AI 在商業營運中的能力,然而,結果卻令人失望。經過一個月的測試,Claudius 不僅未能盈利,還出現了多次荒謬的幻覺。 繼續閱讀..

Google AI 的荒謬幻覺:虛構成語竟被解釋成真理

作者 |發布日期 2025 年 04 月 26 日 13:50 | 分類 AI 人工智慧 , 資訊安全

Google 人工智慧(AI)最近引發了一場有趣的現象,當用戶在搜尋框中輸入隨意的短語並附上「意義」時,AI 會給出該俗語的解釋。這一切的起因是英國歷史學家兼播客主持人格雷格·詹納(Greg Jenner)在社群平台發文,隨意提出了「你不能舔兩次獾」(You can’t lick a badger twice)這句話,並要求 Google 解釋意義。令人驚訝的是,Google 的 AI 系統竟然詳細解釋,儘管英文根本沒這句話。

繼續閱讀..

矽谷熱潮背後的冷思考,AI 代理人的期望與現實差距

作者 |發布日期 2025 年 04 月 18 日 9:00 | 分類 AI 人工智慧 , 網路

矽谷對 AI 代理人的樂觀情緒高漲,這些技術被視為能夠解決問題、執行任務並隨著環境學習而變得更智慧的虛擬助理。企業已經開始利用這些代理人來預訂航班、收集數據、總結報告甚至做出決策。然而,這些代理人並不完美,錯誤和幻覺的問題依然普遍,且隨著使用的增加而惡化。 繼續閱讀..