TechNews Logo

針對 AI 安全揭露,政府是否應立法?

Answer | Powered by TechNews Smart AI

全球 AI 治理正從企業自律轉向法制化,台灣立法院已三讀通過《人工智慧基本法》,明定國科會為主管機關,並確立透明、問責與安全等七大原則。歐盟《人工智慧法案》則率先採行風險分級制,要求高風險模型必須通過嚴格審查,而韓國也已實施專法規範深度偽造與虛假資訊。目前各國立法核心多聚焦於「適當揭露」,要求 AI 生成內容須標註浮水印或警語,並針對公部門使用生成式 AI 訂定指引,禁止在機密文書中使用,以防堵資安與隱私漏洞,確保技術應用不侵害人民權益。

法律強制揭露的背後,是為了在技術狂飆與社會信任間建立緩衝帶。對企業而言,明確的法規框架雖增加合規成本,卻能提供「法律可預測性」,避免因社會輿論反彈或法律真空導致的投資風險。然而,當前 AI 演化速度遠超立法進程,過於僵化的監管可能扼殺創新,甚至引發法規碎片化挑戰。未來產業競爭的關鍵將不再只是算力,而是誰能率先建立符合國際標準的安全治理體系。政府若能透過立法引導企業將安全設計內化為產品核心,將有助於降低 AI 欺騙行為帶來的系統性風險,進而加速技術在醫療、金融等高信任需求領域的落地應用。

back_icon 解鎖更多問題

參考資料