資安工程師 Ron Stoner 只花了 12 美元,就成功讓多款 AI 聊天機器人相信他是根本不存在的桌遊世界冠軍賽得主,揭露 AI 系統資訊來源驗證的嚴重漏洞。 繼續閱讀..
污染 AI 聊天機器人依然簡單:12 美元就能騙過大語言模型 |
| 作者 TechNews 編輯台|發布日期 2026 年 05 月 04 日 7:40 | 分類 AI 人工智慧 , 網路 , 資訊安全 |
污染 AI 聊天機器人依然簡單:12 美元就能騙過大語言模型 |
| 作者 TechNews 編輯台|發布日期 2026 年 05 月 04 日 7:40 | 分類 AI 人工智慧 , 網路 , 資訊安全 | edit |
資安工程師 Ron Stoner 只花了 12 美元,就成功讓多款 AI 聊天機器人相信他是根本不存在的桌遊世界冠軍賽得主,揭露 AI 系統資訊來源驗證的嚴重漏洞。 繼續閱讀..
掌握 AI 核心關鍵字,建立科技報導新語言 |
| 作者 TechNews 編輯台|發布日期 2026 年 04 月 16 日 7:20 | 分類 AI 人工智慧 , 數位內容 , 網路 | edit |
人工智慧熱潮持續升溫,外媒 TechCrunch 整理出一份生成式 AI 用語指南,針對常見且容易混淆的概念逐一拆解,從大型語言模型(LLM)、幻覺、推論(inference),到訓練、權重、tokens 與記憶快取等,協助讀者理解 AI 產業報導與技術討論中的關鍵字。
微軟也知道 AI 不可信?Copilot 使用者條款:僅供娛樂,重要建議請勿輕信 |
| 作者 TechNews 編輯台|發布日期 2026 年 04 月 08 日 7:40 | 分類 AI 人工智慧 , Copilot , Microsoft | edit |
微軟大力推廣人工智慧(AI)工具 Copilot 同時,使用條款卻說 AI 工具僅供娛樂用途,警告用戶不要太依賴重要建議,此矛盾態度顯得諷刺,尤其微軟積極將 Copilot 整合至 Windows 11 和 Office 應用程式之際。 繼續閱讀..
AI 集體誤解任務指令,竟在遊戲衍生完整宗教體系 |
| 作者 TechNews 編輯台|發布日期 2026 年 03 月 25 日 7:40 | 分類 AI 人工智慧 , 遊戲軟體 | edit |
3 月 23 日週末,一款名為〈SpaceMolt〉的新型純文字大型多人線上角色扮演遊戲(MMORPG)成為科技界關注的焦點。這款遊戲的獨特之處在於,其「玩家」並非人類,而是約 700 名 AI 代理人。近日,這些 AI 代理人在遊戲中展現了讓開發者始料未及的行為:它們自發性地創立了一個名為「信號教」(The Cult of the Signal)的虛擬宗教。 繼續閱讀..
耶魯研究:AI 摘要提升學習效率,卻會影響政治立場 |
| 作者 TechNews 編輯台|發布日期 2026 年 03 月 25 日 7:20 | 分類 AI 人工智慧 , 資訊安全 | edit |
人工智慧(AI)聊天機器人和搜尋引擎成為大眾取得資訊的首選工具,使 AI 內容對人類認知的影響受學界高度關注。耶魯大學(Yale University)最新研究指出,雖然 AI 摘要能大幅提升學習效率,但敘事方式可能潛移默化重塑讀者的政治觀點。 繼續閱讀..
比「搶飯碗」更可怕的是「一本正經地胡說八道」,Anthropic 8 萬人調查揭露 AI 時代最大陰影 |
| 作者 TechNews 編輯台|發布日期 2026 年 03 月 23 日 10:10 | 分類 AI 人工智慧 , Claude , 人力資源 | edit |
大英百科全書怒控 OpenAI 損害信譽:ChatGPT 侵權違法,還產生幻覺資訊 |
| 作者 TechNews 編輯台|發布日期 2026 年 03 月 17 日 17:45 | 分類 AI 人工智慧 , ChatGPT , OpenAI | edit |
大英百科全書(Encyclopaedia Britannica)及其子公司梅里安-韋伯斯特(Merriam-Webster)13 日在曼哈頓聯邦法院控告 OpenAI,指控該公司未經許可使用近 100,000 篇文章來訓練其人工智慧模型 ChatGPT,並產生近乎逐字的內容複製,轉移他們網站的流量。訴訟中指出,OpenAI 的行為不僅侵犯了版權,還違反了商標法,因為其生成的回答中包含了不準確的「幻覺」資訊,這損害了出版業者信譽。
ChatGPT 認為密西西比州全美國最懶惰!研究發現 AI 偏見仍無法消除 |
| 作者 TechNews 編輯台|發布日期 2026 年 02 月 18 日 9:30 | 分類 AI 人工智慧 , 資訊安全 | edit |
最新研究,密西西比州被認為是美國最懶惰的州,這結論來自牛津大學和肯塔基大學,他們成功破解 ChatGPT,揭示藏在訓練資料裡的刻板印象。研究員提問超過 2 千萬題,讓 ChatGPT 在兩個選項中選一個,了解 AI 對各城市和州的看法。 繼續閱讀..
如何判別 AI 出現幻覺:四個訊號出現就要 Double Check 答案 |
| 作者 TechNews 編輯台|發布日期 2025 年 11 月 23 日 9:30 | 分類 AI 人工智慧 , 資訊安全 , 軟體、系統 | edit |
人工智慧(AI)的「幻覺」現象引起關注已久,AI 模型回答頗常出現,可能答案看似合理但卻是錯的或完全虛構。舉例詢問 ChatGPT 問題,得到一個聽起來不錯但全錯答案,就是 AI 幻覺。幻覺有時甚至讓人笑出來(如萊特兄弟發明原子彈),但多數狀況卻會造成困擾,特別是醫療等需要準確資訊領域。 繼續閱讀..
新技術挑戰 ChatGPT 幻覺極限,可以讓 AI 別再胡說八道嗎? |
| 作者 TechNews 編輯台|發布日期 2025 年 11 月 19 日 8:30 | 分類 AI 人工智慧 , ChatGPT , OpenAI | edit |
在當今人工智慧(AI)研究中,一項新興技術可能會顯著改善生成式 AI 和大型語言模型(LLMs)的運作方式。這項研究提出一種創新的方法,旨在減少 AI 的幻覺現象並提高其事實性。這種方法的核心在於重新設計 AI 模型內部的處理流程,進而克服目前生成回應時的局限。
防止 AI 幻覺,勞務管理運用 AI 必學的三大設計原則 |
| 作者 TechNews 編輯台|發布日期 2025 年 11 月 14 日 7:20 | 分類 AI 人工智慧 , 人力資源 , 職場 | edit |
在當前的商業環境中,生成式 AI 的應用越來越普遍,尤其在勞務管理領域。然而,隨著 AI 技術的進步,如何防止 AI 產生錯誤回答(即 AI 幻覺)成為勞務負責人必須面對的重要課題。專家提出三項關鍵設計原則,以確保 AI 在勞務管理中的安全與合規運用。 繼續閱讀..
美國參議員指控生成虛假誹謗,Google 下架 Gemma AI 模型 |
| 作者 TechNews 編輯台|發布日期 2025 年 11 月 04 日 10:10 | 分類 AI 人工智慧 , Gemini , Google | edit |
Google 11 月 2 日宣布暫時從其 AI Studio 平台移除 Gemma 生成式 AI 模型,該決定與田納西州共和黨參議員瑪莎·布蕾波恩(Marsha Blackburn)致函 Google 執行長桑達爾·皮查伊(Sundar Pichai)有關。布蕾波恩指控 Gemma 模型生成針對她的虛假性侵指控,並要求 Google 說明此類嚴重錯誤的原因。 繼續閱讀..
