真人還是 AI 創作?研究:目前無可靠方法檢測 AI 生成文本

作者 | 發布日期 2023 年 03 月 23 日 7:30 | 分類 AI 人工智慧 line share follow us in feedly line share
真人還是 AI 創作?研究:目前無可靠方法檢測 AI 生成文本


隨著 ChatGPT、Bard 等聊天機器人流行,並出產許多以 AI 生成的內容,目前學界開始找尋能檢測出機器生成文本的方法。

美國馬里蘭大學 5 位電腦科學家 Vinu Sankar Sadasivan、Aounon Kumar、Sriram Balasubramanian、Wenxiao Wang 和 Soheil Feizi 最近研究了檢測大型語言模型生成的文本,並將結果寫成一篇名為《AI 生成文本能可靠地檢測出來嗎?》(Can AI-Generated Text be Reliably Detected?)的論文中詳細介紹。

隨後研究人員發現,「我們從理論和經驗上表明,這些最先進的檢測器在實際場景中無法可靠地檢測出 LLM 模型輸出」,由於機器學習的模型不斷改進,越來越能模仿人類的方式輸出內容,因此 LLM 輸出檢測可能相當困難。

研究人員認為,如果無節制的使用這些模型,可能導致不良後果,如複雜的垃圾郵件、操縱性假新聞、不準確的檔案摘要和剽竊問題。更重要的是,這些技術已經被整合到主要科技公司的應用程式中。

事實證明,LLM 的文本輸出可以從簡單的單字替換成是完成,來逃避檢測,這使得檢測器的準確性從 97% 降至 80%、甚至是57%。該論文指出,只要在生成性文本的模型上使用輕度的轉述器,就能夠破壞整個檢測器的範圍。

在詢問是否有更可靠的方法來檢測 LLM 生成文本時,馬里蘭大學電腦科學助理教授、該論文共同作者之一Soheil Feizi 認為沒有,我們的結果指出 AI 生成的文本檢測問題在實際場景中的不可能性。

Feizi 表示,「我們可能永遠無法可靠地說出一個文本是由人類還是 AI 寫的,但相反地,我們可能透過其他訊息驗證文本『來源』,如許多社群平台開始廣泛驗證帳戶,這能有效使 AI 產生的錯誤訊息傳播更加困難。」

(首圖來源:shutterstock)

延伸閱讀: