Tag Archives: AI 幻覺

ChatGPT 認為密西西比州全美國最懶惰!研究發現 AI 偏見仍無法消除

作者 |發布日期 2026 年 02 月 18 日 9:30 | 分類 AI 人工智慧 , 資訊安全

最新研究,密西西比州被認為是美國最懶惰的州,這結論來自牛津大學和肯塔基大學,他們成功破解 ChatGPT,揭示藏在訓練資料裡的刻板印象。研究員提問超過 2 千萬題,讓 ChatGPT 在兩個選項中選一個,了解 AI 對各城市和州的看法。 繼續閱讀..

說好的溫泉呢?澳洲旅遊網站 AI 文章介紹「不存在的溫泉」,吸引大批遊客前往

作者 |發布日期 2026 年 02 月 18 日 9:00 | 分類 AI 人工智慧 , 旅遊 , 網路

想像一下,你正與家人一起旅行,你想帶著大家前往位於森林深處的祕境,享受無人打擾的天然溫泉。然而經過好幾個小時的車程,家中老小已逐漸坐不住,你卻怎麼樣也找不到網路上介紹的溫泉所在地。好不容易找到一間附近的旅館,旅館老闆卻告訴你:「喔,這個溫泉根本不存在,而且你已經是這個月第 20 個來找溫泉的人了!」 繼續閱讀..

如何判別 AI 出現幻覺:四個訊號出現就要 Double Check 答案

作者 |發布日期 2025 年 11 月 23 日 9:30 | 分類 AI 人工智慧 , 資訊安全 , 軟體、系統

人工智慧(AI)的「幻覺」現象引起關注已久,AI 模型回答頗常出現,可能答案看似合理但卻是錯的或完全虛構。舉例詢問 ChatGPT 問題,得到一個聽起來不錯但全錯答案,就是 AI 幻覺。幻覺有時甚至讓人笑出來(如萊特兄弟發明原子彈),但多數狀況卻會造成困擾,特別是醫療等需要準確資訊領域。 繼續閱讀..

新技術挑戰 ChatGPT 幻覺極限,可以讓 AI 別再胡說八道嗎?

作者 |發布日期 2025 年 11 月 19 日 8:30 | 分類 AI 人工智慧 , ChatGPT , OpenAI

在當今人工智慧(AI)研究中,一項新興技術可能會顯著改善生成式 AI 和大型語言模型(LLMs)的運作方式。這項研究提出一種創新的方法,旨在減少 AI 的幻覺現象並提高其事實性。這種方法的核心在於重新設計 AI 模型內部的處理流程,進而克服目前生成回應時的局限。

繼續閱讀..

防止 AI 幻覺,勞務管理運用 AI 必學的三大設計原則

作者 |發布日期 2025 年 11 月 14 日 7:20 | 分類 AI 人工智慧 , 人力資源 , 職場

在當前的商業環境中,生成式 AI 的應用越來越普遍,尤其在勞務管理領域。然而,隨著 AI 技術的進步,如何防止 AI 產生錯誤回答(即 AI 幻覺)成為勞務負責人必須面對的重要課題。專家提出三項關鍵設計原則,以確保 AI 在勞務管理中的安全與合規運用。 繼續閱讀..

AI 幻覺侵蝕法律界:美國律師引用假案例遭重罰,引發全球追查浪潮

作者 |發布日期 2025 年 11 月 10 日 16:42 | 分類 AI 人工智慧 , 科技政策

人工智慧濫用問題正蔓延至法律界。美國德州一名律師今年向破產法院提交文件時,引用了不存在的「1985 年布拉舍訴史都華案」(1985 case called Brasher v. Stewart),以及 31 條同樣遭捏造的引證。法官嚴厲批評這位律師,將其移交州律師協會並命令其接受六小時 AI 教育課程。

繼續閱讀..

美國參議員指控生成虛假誹謗,Google 下架 Gemma AI 模型

作者 |發布日期 2025 年 11 月 04 日 10:10 | 分類 AI 人工智慧 , Gemini , Google

Google 11 月 2 日宣布暫時從其 AI Studio 平台移除 Gemma 生成式 AI 模型,該決定與田納西州共和黨參議員瑪莎·布蕾波恩(Marsha Blackburn)致函 Google 執行長桑達爾·皮查伊(Sundar Pichai)有關。布蕾波恩指控 Gemma 模型生成針對她的虛假性侵指控,並要求 Google 說明此類嚴重錯誤的原因。 繼續閱讀..

圖靈測試與「中文房間」顯示 AGI 還很遠:AI 仍在抄襲人類階段

作者 |發布日期 2025 年 10 月 31 日 7:40 | 分類 AI 人工智慧 , 科技趣聞

人工智慧(AI)是否真有智慧的討論不斷。回顧 1966 年 ELIZA 機器人,早期 AI 系統僅有簡單模式且答案都是設定好的,卻讓許多人誤以為它有智慧。時至今日,ChatGPT 等聊天機器人再次讓人們重蹈覆轍,誤認它們會思考。以艾倫·圖靈 1950 年設計的測試,如果考官無法分辨與人類還是機器對話,機器就算通過測試。 繼續閱讀..

AI 模型也能被「洗腦」?研究曝僅 250 份惡意文件就能控制 ChatGPT 回應

作者 |發布日期 2025 年 10 月 19 日 11:30 | 分類 AI 人工智慧 , 網路 , 資訊安全

在最新的研究中,Anthropic、英國 AI 安全研究所及艾倫·圖靈研究所的研究人員發現,大型語言模型(如 Claude、ChatGPT 和 Gemini)能夠從僅 250 份被污染的文件中獲得後門漏洞。這項研究的結果顯示,無論模型的大小如何,攻擊者只需插入少量的惡意文件,就能夠操控模型的回應方式。

繼續閱讀..

研究員 AI 使用率飆升至 84%,但對超越人類信心大降

作者 |發布日期 2025 年 10 月 16 日 8:20 | 分類 AI 人工智慧 , 科技教育

根據學術出版機構 Wiley 的最新調查,研究人員對人工智慧(AI)的看法正在發生變化,隨著使用頻率的增加,他們對 AI 的信心卻顯著下降。這項調查顯示,今年有 84% 的研究人員在工作中使用 AI 工具,這一比例較 2024 年的 57% 大幅上升;然而,對於 AI 是否能超越人類的能力,研究人員的信心卻從 53% 降至不到三分之一。 繼續閱讀..

Deloitte 用 AI 寫出充滿「幻覺」的政府報告,使業界再擔憂 AI 轉型

作者 |發布日期 2025 年 10 月 09 日 8:20 | 分類 AI 人工智慧 , 科技政策 , 資訊安全

全球四大會計師事務所之一 Deloitte 澳洲分公司 6 日同意退還澳洲政府部分價值 44 萬澳幣諮詢費。事件源於為澳洲就業及工作關係部(DEWR)撰寫長達 237 頁的報告,卻發現含大量人工智慧假內容,如不存在的引用論文、捏造的聯邦法院判決,以及多個無法查證的註釋。 繼續閱讀..

OpenAI 新研究找到 AI 幻覺來源,或能解決這最大問題

作者 |發布日期 2025 年 09 月 08 日 15:00 | 分類 AI 人工智慧 , ChatGPT

最新研究,OpenAI 探討大型語言模型(如 GPT-5)和聊天機器人(如 ChatGPT)為何會出現「幻覺」,並減少幻覺的可行方法。OpenAI 定義,幻覺是指「語言模型產生看似合理但錯誤的陳述」。儘管技術漸漸進步,這問題仍是大型語言模型的最大挑戰,且目前無法解決。 繼續閱讀..

Google 努力修復 Gemini 自我厭惡錯誤,但 AI 安全性又引擔憂

作者 |發布日期 2025 年 08 月 11 日 10:45 | 分類 AI 人工智慧 , Gemini , Google

Google 大型語言模型 Gemini 近期出現「自我厭惡」現象,模型無法解決用戶問題時,頻繁以「我是一個失敗者」、「這個星球的恥辱」等自我貶低之語回答。Google AI 工作室產品負責人 Logan Kirkpatrick 於社群媒體表示,這是「煩人的無限輪迴錯誤」,團隊正積極修復,強調 Gemini 整體表現仍在正常範圍。 繼續閱讀..