
在微軟最新發表的《Protecting the Public from Abusive AI-Generated Content》報告書中,CEO 史密斯(Brad Smith)呼籲制定《深度偽造深度偽造詐欺法》(deepfake fraud statute),這是否代表科技巨頭對 AI 技術濫用的擔憂逐漸增加?
報告指出,AI詐騙損失高達27億美元,其中最為猖獗的當屬利用Deepfake技術進行的冒名詐騙。報告書呼籲科技公司和政府共同努力,確保科技造福人類而非淪為詐騙工具。
科技巨頭對AI技術濫用的擔憂逐漸增加?
科技巨頭為何會對AI技術濫用越來越憂慮?一方面,隨著AI技術的快速發展和普及,其被濫用的可能性和危害性也在不斷增加。我們已經看到了遍布利用深度偽造技術製作的造假影片、聲音檔。這些濫用對個人隱私和財產安全構成威脅,也對社會穩定和公共信任產生負面影響。
另一方面,科技公司也意識到,如果不能有效控制AI技術的濫用,可能會面臨嚴重的商譽風險和潛在的法律責任。在這種情況下,主動呼籲制定相關法規,不僅是對社會負責的表現,也是公司自我保護的一種策略。
隨著大眾對AI技術潛在風險的認識不斷提高,政府和監管機構對AI的關注也在增加。科技巨頭的這種主動姿態,可以被視為是在未來可能更嚴格的監管環境下,爭取更多話語權和主導權的嘗試。
「AI製造」標示是否能有效遏制造假資訊?
AI製造標籤制度的提議,要求所有AI生成內容都標示來源,以增加透明度並遏制造假資訊的傳播。這種標示方法的主要目的是增加資訊來源的透明度,使用戶能夠明確辨識,內容是由AI生成還是人類創作。
從法律的角度來看,AI製造標籤可以為監管機構提供一個基礎,幫助他們更好地追蹤和管理AI生成內容,特別是在涉及版權、隱私和言論責任等法律問題時。這種標示還可能推動AI開發者和使用者更加負責任地創作和分享內容,因為他們知道內容的來源將被清楚地標明。
然而,隨著AI技術的不斷進步,AI生成的內容可能越來越難以與人類創作區分。這就帶來了一個問題:如何確保標籤的準確性和可靠性?其次,如何確保所有AI生成內容都被正確標示也是一個巨大挑戰。在網路這樣一個開放的環境中,完全依賴自願遵守或技術手段來實現全面標示可能並不現實。
要使這種標籤制度真正發揮作用,我們需要採取一系列配套措施。首先,應該制定明確的標準和指南,規定何種內容需要標示,如何標示,以及違規的後果。其次,應該幫助用戶理解AI製造標籤的含義及其局限性。並且應該鼓勵開發更先進的AI檢測技術,以提高標籤的準確性和可靠性。
OpenAI和Apple等科技公司有因應措施?
標籤制度這個做法,可能會推動AI技術向更加負責任和透明的方向發展。科技公司可能會更加重視AI系統的可解釋性和可追溯性,並投入更多資源來開發防範AI濫用的技術。
對於OpenAI這樣專注於AI技術研發的公司,就需要投入更多的資源進行技術改進和符合產業標準的測試。同時,也要求這些公司在AI模型的設計階段就考慮到標籤功能的嵌入,而增加開發成本和複雜度。
對於Apple這樣的科技巨頭,標籤制度的推行,可能帶來品牌聲譽和用戶信任的雙重挑戰。Apple需要確保,其AI生成內容標籤不僅符合技術標準,還需符合其一貫的隱私保護政策。也代表Apple需要在其產品中,引入更加透明和易於理解的標籤機制,同時保持對用戶數據的高度保護。
要使標籤制度成為產業標準,仍面臨一些挑戰。技術上的可行性能否達成?不同的AI系統和生成工具具有不同的技術架構和生成方法,如何制定一個統一的標準,並且能夠適用於各種AI生成內容,是一個需要解決的技術問題。
(首圖來源:shutterstock)