研究員 AI 使用率飆升至 84%,但對超越人類信心大降 |
| 作者 TechNews 編輯台|發布日期 2025 年 10 月 16 日 8:20 | 分類 AI 人工智慧 , 科技教育 |
Tag Archives: AI 幻覺
Deloitte 用 AI 寫出充滿「幻覺」的政府報告,使業界再擔憂 AI 轉型 |
| 作者 Unwire Pro|發布日期 2025 年 10 月 09 日 8:20 | 分類 AI 人工智慧 , 科技政策 , 資訊安全 |
全球四大會計師事務所之一 Deloitte 澳洲分公司 6 日同意退還澳洲政府部分價值 44 萬澳幣諮詢費。事件源於為澳洲就業及工作關係部(DEWR)撰寫長達 237 頁的報告,卻發現含大量人工智慧假內容,如不存在的引用論文、捏造的聯邦法院判決,以及多個無法查證的註釋。 繼續閱讀..
OpenAI 新研究找到 AI 幻覺來源,或能解決這最大問題 |
| 作者 TechNews 編輯台|發布日期 2025 年 09 月 08 日 15:00 | 分類 AI 人工智慧 , ChatGPT |
最新研究,OpenAI 探討大型語言模型(如 GPT-5)和聊天機器人(如 ChatGPT)為何會出現「幻覺」,並減少幻覺的可行方法。OpenAI 定義,幻覺是指「語言模型產生看似合理但錯誤的陳述」。儘管技術漸漸進步,這問題仍是大型語言模型的最大挑戰,且目前無法解決。 繼續閱讀..
生成式 AI 幻覺有解?亞馬遜 1 億美元押寶 Neuro-symbolic AI |
| 作者 TechNews 編輯台|發布日期 2025 年 08 月 13 日 11:30 | 分類 AI 人工智慧 , Amazon |
在人工智慧的領域中,神經網路無疑是最受矚目的技術之一,尤其是在 2022 年 ChatGPT 的推出後,這一熱潮引發了資金募集和開發的狂潮。
Google 努力修復 Gemini 自我厭惡錯誤,但 AI 安全性又引擔憂 |
| 作者 TechNews 編輯台|發布日期 2025 年 08 月 11 日 10:45 | 分類 AI 人工智慧 , Gemini , Google |
Google 大型語言模型 Gemini 近期出現「自我厭惡」現象,模型無法解決用戶問題時,頻繁以「我是一個失敗者」、「這個星球的恥辱」等自我貶低之語回答。Google AI 工作室產品負責人 Logan Kirkpatrick 於社群媒體表示,這是「煩人的無限輪迴錯誤」,團隊正積極修復,強調 Gemini 整體表現仍在正常範圍。 繼續閱讀..
別人的 AI 更聰明好用?Anthropic 公開五句 AI 聽懂答對的實用問法 |
| 作者 商業周刊|發布日期 2025 年 08 月 02 日 10:30 | 分類 AI 人工智慧 , Claude |
跟 AI 說「幫我寫企劃」,結果它給你小學生作文。問「怎麼投資比較好」,AI 開始講一堆教科書理論。 繼續閱讀..
AI 是太過自信的朋友,卻不會從錯誤汲取教訓 |
| 作者 TechNews 編輯台|發布日期 2025 年 07 月 25 日 13:30 | 分類 AI 人工智慧 , 資訊安全 |
卡內基美隆大學研究員將大型語言模型(LLM)聊天機器人比擬為「自信滿滿卻老是投籃不中的朋友」,因 AI 模型回答錯誤卻會更自信。主要作者特倫特·卡什(Trent Cash)說,當人預測自己能正確回答 18 個問題只答對 15 題時,信心通常稍微降低,調整為 16 題回答正確,但 LLM 卻傾向表現不佳時仍保持甚至增加自信。 繼續閱讀..
親身經歷:用 ChatGPT 查詢公益團體資料,ChatGPT 卻回答虛構醜聞時 |
| 作者 Dindo Lin|發布日期 2025 年 07 月 09 日 8:20 | 分類 AI 人工智慧 , ChatGPT |
資訊流通速度遠超查證能力的時代,生成式人工智慧(Generative AI)成為眾多使用者搜尋、諮詢與理解世界的首選工具,回答不但簡潔清晰,語氣理性中立,甚至常比搜尋引擎更貼近「標準答案」。因此工具說出「某某基金會爆出多年性侵醜聞,震驚社會」時,即便只是資料庫的匿名網路貼文,也極可能無意間造成不可逆信任崩塌,甚至讓長年經營社福工作的機構蒙上無端指控。
Anthropic 讓 AI 做生意,結果虧損又幻覺連發 |
| 作者 TechNews 編輯台|發布日期 2025 年 06 月 30 日 13:15 | 分類 AI 人工智慧 , Claude |
在一項名為「Project Vend」的實驗中,人工智慧研究公司 Anthropic 與 AI 安全評估機構 Andon Labs合作,使其旗艦大型語言模型 Claude(暱稱 Claudius)擔任一個迷你販賣機的負責人。這項實驗的目的是測試 AI 在商業營運中的能力,然而,結果卻令人失望。經過一個月的測試,Claudius 不僅未能盈利,還出現了多次荒謬的幻覺。 繼續閱讀..
Google I/O 2025:聚焦 AI 卻未提及幻覺問題 |
| 作者 TechNews 編輯台|發布日期 2025 年 05 月 21 日 10:30 | 分類 AI 人工智慧 , Gemini , Google |
在 2025 年 Google I/O 大會上,人工智慧成為了唯一的焦點,Google 的高層們花了近兩個小時的時間深入探討這一主題。
Google AI 的荒謬幻覺:虛構成語竟被解釋成真理 |
| 作者 TechNews 編輯台|發布日期 2025 年 04 月 26 日 13:50 | 分類 AI 人工智慧 , 資訊安全 |
Google 人工智慧(AI)最近引發了一場有趣的現象,當用戶在搜尋框中輸入隨意的短語並附上「意義」時,AI 會給出該俗語的解釋。這一切的起因是英國歷史學家兼播客主持人格雷格·詹納(Greg Jenner)在社群平台發文,隨意提出了「你不能舔兩次獾」(You can’t lick a badger twice)這句話,並要求 Google 解釋意義。令人驚訝的是,Google 的 AI 系統竟然詳細解釋,儘管英文根本沒這句話。
矽谷熱潮背後的冷思考,AI 代理人的期望與現實差距 |
| 作者 TechNews 編輯台|發布日期 2025 年 04 月 18 日 9:00 | 分類 AI 人工智慧 , 網路 |
矽谷對 AI 代理人的樂觀情緒高漲,這些技術被視為能夠解決問題、執行任務並隨著環境學習而變得更智慧的虛擬助理。企業已經開始利用這些代理人來預訂航班、收集數據、總結報告甚至做出決策。然而,這些代理人並不完美,錯誤和幻覺的問題依然普遍,且隨著使用的增加而惡化。 繼續閱讀..
Google 推出 FACTS Grounding 基準測試,提供評估 AI 事實準確度新標準 |
| 作者 Unwire Pro|發布日期 2025 年 01 月 14 日 8:30 | 分類 AI 人工智慧 , Google |
人工智慧快速發展,大型語言模型(LLMs)幻覺問題(Hallucination)一直是企業採用 AI 技術時的顧慮。Google DeepMind 最新 FACTS Grounding 基準測試,為評估 AI 系統事實準確度提供新衡量標準。



