在一場圍繞人工智慧(AI)代理人的法律攻防中,亞馬遜(Amazon)公司正對 AI 新創公司 Perplexity 控告,指控其平台允許使用者透過 AI 代理人於亞馬遜進行購物。
近日,兩個非營利組織安全科學與技術法律倡導者 LASST 與 Encode AI,向法院提交支持亞馬遜的意見書,主張 AI 代理人應明確自我揭露其非人類身分。LASST 負責人泰勒‧惠特默(Tyler Whitmer)表示,隨著 AI 代理人日益普及,要求其自我辨識至關重要。此舉不僅有助於商業與安全層面的考量,也能避免代理人扭曲公共論述,進而削弱民主參與。
本案的核心爭點在於,亞馬遜希望阻止消費者在購物過程中使用其他公司的 AI 代理人,而這正觸及 AI 技術未來可能帶來的重大轉變。使用者只需向代理人說明需求,便可交由其代為完成任務。LASST 與 Encode AI 在意見書中指出,現代 AI 代理人已不再只是被動工具,而是能解讀內容、做出決策,並以不可預測方式行動的自主系統,其涉及的安全與責任風險,也不同於人類或傳統自動化程式。
這些非營利組織認為,若無法辨識互動對象究竟是人類還是 AI 代理人,網站營運方將難以有效管理相關風險。透過辨識機制,平台才能採取不同的安全措施,並在發生問題時進行行為稽核。相關主張並非意在阻擋 AI 代理人的發展,而是希望為網站提供必要資訊,以判斷如何應對這類代理人。
Perplexity:使用者應有權選擇由何種技術代表自身行動
然而,這樣的要求也可能引發其他爭議。目前零售商與品牌已普遍採用動態定價策略,導致不同消費者可能為相同商品支付不同價格。這類做法對消費者而言往往缺乏透明度,除非在不同帳號或瀏覽器環境下比對價格,否則難以察覺差異。
Perplexity 對 AI 代理人的角色則持不同立場,認為既然人類助理可以替使用者執行任務,AI 代理人理應也能扮演相同角色。該公司主張,AI 助手應與人類助理難以區分,且使用者應有權選擇由何種技術代表自身行動。
若亞馬遜最終勝出,未來可能得以限制第三方 AI 代理人的使用,或向其收取額外費用。LASST 與 Encode AI 則強調,其立場基於公共利益,而非市場競爭考量。他們指出,政府與產業界對 AI 系統透明化的共識正逐步形成,並援引美國商務部相關標準、加州 AI 揭露法,以及歐盟《AI 法案》等政策與法規為佐證。
(首圖來源:Unsplash)






