深度造假與 AI 擾亂,談美國 AI 治理的監管環境

作者 | 發布日期 2024 年 07 月 01 日 8:00 | 分類 AI 人工智慧 , 科技政策 line share Linkedin share follow us in feedly line share
深度造假與 AI 擾亂,談美國 AI 治理的監管環境

美國民主制度正面臨一場嚴峻考驗──深度偽造(Deepfake)和 AI 生成內容,正以驚人的速度滲透到我們的資訊生態系統中,對即將到來的美國大選構成威脅。包括 Taylor Swift 事件、選舉中深度偽造技術的威脅,再到社群媒體平台上氾濫的 AI 生成內容,美國的 AI 治理正面臨著前所未有的考驗。

Taylor Swift事件成為AI監管政策的轉捩點

Taylor Swift遭到AI造假事件,無疑是2024年初最引人注目的科技大事之一,它不僅引發公眾對AI技術濫用的擔憂,更成為推動AI監管政策的重要催化劑。直接促使共和黨國會議員堅恩(Thomas Kean Jr.)提出了《AI標籤法案》(AI Labeling Act),目的在建立AI內容辨識和標籤系統,期望增強大眾對AI生成內容的辨識能力。

這一事件凸顯AI技術,在快速發展過程中所帶來的新型社會風險。AI生成的深度偽造內容,侵犯了個人隱私權,還可能對公眾輿論和社會秩序造成嚴重影響。即使是Taylor Swift這樣知名公眾人物,也可能成為AI濫用的受害者,這提供了政策制定者一個具體而有說服力的案例,說明為什麼需要對AI技術進行更嚴格的監管。

《AI標籤法案》的提出,反映了立法者對AI監管採取的一種平衡策略。該法案並不是簡單地禁止AI生成內容,而是要求開發者為AI生成的內容加上明確標籤。這種方法既不阻礙AI技術的創新和應用,又能夠幫助用戶辨別AI生成的內容。這種平衡策略可能成為未來AI監管政策的一個重要參考模式,因為它既考慮到了技術創新的需求,又照顧到了公眾利益的保護。

AI生成內容標註如何確保消費者能辨識?

我們需要建立一個統一的、易於辨識的標籤系統,這個系統應該簡單明瞭,能夠在不影響用戶體驗的前提下,清晰地標示出內容的來源。例如,我們可以在AI生成的內容上添加一個明顯的標識,或者在內容發布平台上設置特定的標籤。這些標籤可以採用統一的顏色和圖案,讓用戶一眼就能辨識出內容的性質。

同時,我們還可以考慮設置不同等級的標籤,以區分「完全由AI生成的內容」、「AI輔助人類創作的內容」,以及「純粹的人類創作」。這種細分可以更準確地反映內容的真實來源,避免過於簡單化的二元分類。

我們也需要建立一套可靠的驗證機制,僅依靠內容創作者自行標註顯然是不夠的,我們需要一個獨立的第三方機構來進行驗證。這個機構可以由政府、學術界和業界代表共同組成,負責制定標準、開發驗證工具,並對標註的準確性進行抽查。也或許我們可以借助AI技術本身,來辨識AI生成的內容。例如,開發一種能夠分析文字、圖像或影片的AI系統,自動檢測並標記可能是AI生成的內容。這種「以AI治理AI」的方法可能會成為未來內容驗證的重要手段。

深偽技術以假亂真,選民如何區分虛假資訊?

以2020年美國總統選舉為例,深偽技術被用來製作假影片,誤導選民,試圖影響選舉結果。政府選舉機構、社群媒體公司和新聞媒體採取了一系列措施,幫助選民辨別真實與虛假的資訊。

如Facebook和Twitter與Snopes、PolitiFact等第三方事實查核機構合作,對可疑影片進行快速檢查,並標記假新聞;科技公司如Microsoft開發了Video Authenticator工具,用於即時分析影片真實性;政府選舉機構和新聞媒體藉由新聞報導、社群媒體和廣告,向選民傳達深偽技術的辨識方法。這些措施有效減少了深偽內容的傳播,提高了選民的辨識能力,保護了選舉的公平性和資訊傳播的真實性。

選民需要培養批判性思維和媒體素養。在資訊爆炸的時代,盲目接受所看到的一切是極其危險的。選民應該養成質疑和驗證資訊的習慣,特別是當遇到令人震驚或情緒化的內容時。一個有效的方法是交叉檢查多個可信賴的新聞來源,而不是僅僅依賴社群媒體或單一資訊管道。

(首圖來源:pixabay

延伸閱讀:

想請我們喝幾杯咖啡?

icon-tag

每杯咖啡 65 元

icon-coffee x 1
icon-coffee x 3
icon-coffee x 5
icon-coffee x

您的咖啡贊助將是讓我們持續走下去的動力

總金額共新臺幣 0
《關於請喝咖啡的 Q & A》