制定人工智慧安全標準,美國政府出手了!

作者 | 發布日期 2024 年 05 月 08 日 8:20 | 分類 AI 人工智慧 , 科技政策 line share follow us in feedly line share
制定人工智慧安全標準,美國政府出手了!


AI 正以驚人的速度,顛覆著我們的生活,為了確保這股創新浪潮朝向正確的軌道邁進,美國政府正式宣布攜手眾多科技業重量級巨擘,成立聯邦 AI 安全委員會(The Artificial Intelligence Safety and Security Board)。

這支「AI守護者」聲勢浩大,包括OpenAI執行長Sam Altman、NVIDIA執行長黃仁勳、AMD執行長蘇姿丰、Microsoft執行長Satya Nadella齊聚一堂。他們將攜手學術界和政府,肩負制定AI安全標準、評估風險並開發AI相關技術的重任,協助政府因應AI技術給關鍵基礎設施可能帶來的安全威脅。

黃仁勳和蘇姿丰等科技界重要人物的加入,無疑將為委員會注入豐富的產業視野和創新理念,將有助於確保AI的健康發展並最大限度釋放其效益。這一合作體現了美國政府與業界攜手共同應對AI安全挑戰的決心。

該委員會首要任務,將是制定一套全面性AI安全標準和最佳應用指引,為AI設計、開發和設置提供明確的指導方針。這一標準不僅將涵蓋技術層面的安全要求,如數據隱私、演算法公平性和系統穩定性,更將關注AI對國家、社會、公眾安全的影響。

此外,委員會還將推動AI安全技術的研發和應用,例如AI安全測試、漏洞檢測和修復等。藉由科技公司、研究機構和政府部門的通力合作,委員會將促進AI安全領域的創新,為確保AI的可靠性和安全性提供有力的技術支援。

政府和企業在AI治理方面的合作障礙

然而,這種政府與科技業跨界合作,卻也蘊藏著一些挑戰,需要審慎應對。其中最為明顯的便是公私部門在目標上的潛在衝突。基本而言,政府的職責在於維護公共利益,確保AI的發展和應用符合社會期望。科技公司往往傾向於追求創新和利潤最大化,可能輕忽AI可能對社會產生的負面風險。這種目標上的差異,是否會導致雙方在具體政策制定過程中,產生分歧和利益衝突,不無疑問。

舉例來說,在AI演算法的透明度和可解釋性議題上,大眾有權要求獲得足夠資訊以確定演算法的公平性,但企業可能基於營業祕密和競爭壓力而拒絕開放;再比如在個人數據保護議題,政府傾向制定嚴格的隱私法規,企業則希望獲得更大的數據收集和利用等自由度。這些分歧如未能妥善處理,容易降低大眾信任度,而損及政策執行力和AI發展前景。

AI資訊公開也是大眾關注的焦點。AI資訊公開的核心是讓大眾了解AI運作方式、數據來源、潛在風險等資訊,以便進行有效監督和評估。在推行AI資訊公開的過程中,應當兼顧透明度和保護商業機密兩方面的要求,為企業預留必要的保密空間。

公私合作是實現有效AI治理的必經之路,但合作之路並非坦途,仍面臨諸多挑戰。政府機構在AI治理資源方面投入不足,難以與企業匹敵。例如,政府機構在AI人才、資金和技術等方面普遍缺乏,導致其在制定AI政策和監管方面的能力有限。為克服這一困境,政府應建立穩定的資金投入機制,加大對AI專業人才的任用。同時,政府也應基於公平公正原則,為企業營造有利環境,政府和企業應加強溝通協調,建立完善的合作機制。

(首圖來源:Image by rawpixel.com on Freepik)

延伸閱讀: