Tag Archives: AI 幻覺

微軟也知道 AI 不可信?Copilot 使用者條款:僅供娛樂,重要建議請勿輕信

作者 |發布日期 2026 年 04 月 08 日 7:40 | 分類 AI 人工智慧 , Copilot , Microsoft

微軟大力推廣人工智慧(AI)工具 Copilot 同時,使用條款卻說 AI 工具僅供娛樂用途,警告用戶不要太依賴重要建議,此矛盾態度顯得諷刺,尤其微軟積極將 Copilot 整合至 Windows 11 和 Office 應用程式之際。 繼續閱讀..

AI 集體誤解任務指令,竟在遊戲衍生完整宗教體系

作者 |發布日期 2026 年 03 月 25 日 7:40 | 分類 AI 人工智慧 , 遊戲軟體

3 月 23 日週末,一款名為〈SpaceMolt〉的新型純文字大型多人線上角色扮演遊戲(MMORPG)成為科技界關注的焦點。這款遊戲的獨特之處在於,其「玩家」並非人類,而是約 700 名 AI 代理人。近日,這些 AI 代理人在遊戲中展現了讓開發者始料未及的行為:它們自發性地創立了一個名為「信號教」(The Cult of the Signal)的虛擬宗教。 繼續閱讀..

耶魯研究:AI 摘要提升學習效率,卻會影響政治立場

作者 |發布日期 2026 年 03 月 25 日 7:20 | 分類 AI 人工智慧 , 資訊安全

人工智慧(AI)聊天機器人和搜尋引擎成為大眾取得資訊的首選工具,使 AI 內容對人類認知的影響受學界高度關注。耶魯大學(Yale University)最新研究指出,雖然 AI 摘要能大幅提升學習效率,但敘事方式可能潛移默化重塑讀者的政治觀點。 繼續閱讀..

比「搶飯碗」更可怕的是「一本正經地胡說八道」,Anthropic 8 萬人調查揭露 AI 時代最大陰影

作者 |發布日期 2026 年 03 月 23 日 10:10 | 分類 AI 人工智慧 , Claude , 人力資源

根據 Anthropic 最新針對 8 萬名 Claude 使用者進行的大規模調查顯示,人工智慧(AI)產生的「幻覺」問題──即生成看似合理但事實錯誤的資訊──已成為使用者心中最大的陰影。這份調查報告為當前 AI 技術的應用現狀提供了詳盡的觀察,指出使用者對於 AI 誤導資訊的恐懼,已顯著超越了對「AI 取代工作」的擔憂。 繼續閱讀..

大英百科全書怒控 OpenAI 損害信譽:ChatGPT 侵權違法,還產生幻覺資訊

作者 |發布日期 2026 年 03 月 17 日 17:45 | 分類 AI 人工智慧 , ChatGPT , OpenAI

大英百科全書(Encyclopaedia Britannica)及其子公司梅里安-韋伯斯特(Merriam-Webster)13 日在曼哈頓聯邦法院控告 OpenAI,指控該公司未經許可使用近 100,000 篇文章來訓練其人工智慧模型 ChatGPT,並產生近乎逐字的內容複製,轉移他們網站的流量。訴訟中指出,OpenAI 的行為不僅侵犯了版權,還違反了商標法,因為其生成的回答中包含了不準確的「幻覺」資訊,這損害了出版業者信譽。

繼續閱讀..

ChatGPT 認為密西西比州全美國最懶惰!研究發現 AI 偏見仍無法消除

作者 |發布日期 2026 年 02 月 18 日 9:30 | 分類 AI 人工智慧 , 資訊安全

最新研究,密西西比州被認為是美國最懶惰的州,這結論來自牛津大學和肯塔基大學,他們成功破解 ChatGPT,揭示藏在訓練資料裡的刻板印象。研究員提問超過 2 千萬題,讓 ChatGPT 在兩個選項中選一個,了解 AI 對各城市和州的看法。 繼續閱讀..

說好的溫泉呢?澳洲旅遊網站 AI 文章介紹「不存在的溫泉」,吸引大批遊客前往

作者 |發布日期 2026 年 02 月 18 日 9:00 | 分類 AI 人工智慧 , 旅遊 , 網路

想像一下,你正與家人一起旅行,你想帶著大家前往位於森林深處的祕境,享受無人打擾的天然溫泉。然而經過好幾個小時的車程,家中老小已逐漸坐不住,你卻怎麼樣也找不到網路上介紹的溫泉所在地。好不容易找到一間附近的旅館,旅館老闆卻告訴你:「喔,這個溫泉根本不存在,而且你已經是這個月第 20 個來找溫泉的人了!」 繼續閱讀..

如何判別 AI 出現幻覺:四個訊號出現就要 Double Check 答案

作者 |發布日期 2025 年 11 月 23 日 9:30 | 分類 AI 人工智慧 , 資訊安全 , 軟體、系統

人工智慧(AI)的「幻覺」現象引起關注已久,AI 模型回答頗常出現,可能答案看似合理但卻是錯的或完全虛構。舉例詢問 ChatGPT 問題,得到一個聽起來不錯但全錯答案,就是 AI 幻覺。幻覺有時甚至讓人笑出來(如萊特兄弟發明原子彈),但多數狀況卻會造成困擾,特別是醫療等需要準確資訊領域。 繼續閱讀..

新技術挑戰 ChatGPT 幻覺極限,可以讓 AI 別再胡說八道嗎?

作者 |發布日期 2025 年 11 月 19 日 8:30 | 分類 AI 人工智慧 , ChatGPT , OpenAI

在當今人工智慧(AI)研究中,一項新興技術可能會顯著改善生成式 AI 和大型語言模型(LLMs)的運作方式。這項研究提出一種創新的方法,旨在減少 AI 的幻覺現象並提高其事實性。這種方法的核心在於重新設計 AI 模型內部的處理流程,進而克服目前生成回應時的局限。

繼續閱讀..

防止 AI 幻覺,勞務管理運用 AI 必學的三大設計原則

作者 |發布日期 2025 年 11 月 14 日 7:20 | 分類 AI 人工智慧 , 人力資源 , 職場

在當前的商業環境中,生成式 AI 的應用越來越普遍,尤其在勞務管理領域。然而,隨著 AI 技術的進步,如何防止 AI 產生錯誤回答(即 AI 幻覺)成為勞務負責人必須面對的重要課題。專家提出三項關鍵設計原則,以確保 AI 在勞務管理中的安全與合規運用。 繼續閱讀..

AI 幻覺侵蝕法律界:美國律師引用假案例遭重罰,引發全球追查浪潮

作者 |發布日期 2025 年 11 月 10 日 16:42 | 分類 AI 人工智慧 , 科技政策

人工智慧濫用問題正蔓延至法律界。美國德州一名律師今年向破產法院提交文件時,引用了不存在的「1985 年布拉舍訴史都華案」(1985 case called Brasher v. Stewart),以及 31 條同樣遭捏造的引證。法官嚴厲批評這位律師,將其移交州律師協會並命令其接受六小時 AI 教育課程。

繼續閱讀..

美國參議員指控生成虛假誹謗,Google 下架 Gemma AI 模型

作者 |發布日期 2025 年 11 月 04 日 10:10 | 分類 AI 人工智慧 , Gemini , Google

Google 11 月 2 日宣布暫時從其 AI Studio 平台移除 Gemma 生成式 AI 模型,該決定與田納西州共和黨參議員瑪莎·布蕾波恩(Marsha Blackburn)致函 Google 執行長桑達爾·皮查伊(Sundar Pichai)有關。布蕾波恩指控 Gemma 模型生成針對她的虛假性侵指控,並要求 Google 說明此類嚴重錯誤的原因。 繼續閱讀..

圖靈測試與「中文房間」顯示 AGI 還很遠:AI 仍在抄襲人類階段

作者 |發布日期 2025 年 10 月 31 日 7:40 | 分類 AI 人工智慧 , 科技趣聞

人工智慧(AI)是否真有智慧的討論不斷。回顧 1966 年 ELIZA 機器人,早期 AI 系統僅有簡單模式且答案都是設定好的,卻讓許多人誤以為它有智慧。時至今日,ChatGPT 等聊天機器人再次讓人們重蹈覆轍,誤認它們會思考。以艾倫·圖靈 1950 年設計的測試,如果考官無法分辨與人類還是機器對話,機器就算通過測試。 繼續閱讀..

AI 模型也能被「洗腦」?研究曝僅 250 份惡意文件就能控制 ChatGPT 回應

作者 |發布日期 2025 年 10 月 19 日 11:30 | 分類 AI 人工智慧 , 網路 , 資訊安全

在最新的研究中,Anthropic、英國 AI 安全研究所及艾倫·圖靈研究所的研究人員發現,大型語言模型(如 Claude、ChatGPT 和 Gemini)能夠從僅 250 份被污染的文件中獲得後門漏洞。這項研究的結果顯示,無論模型的大小如何,攻擊者只需插入少量的惡意文件,就能夠操控模型的回應方式。

繼續閱讀..