三星開放員工使用 ChatGPT,不料 20 天內連爆 3 起機密資訊外洩

作者 | 發布日期 2023 年 04 月 06 日 12:22 | 分類 AI 人工智慧 , Samsung , 資訊安全 line share follow us in feedly line share
三星開放員工使用 ChatGPT,不料 20 天內連爆 3 起機密資訊外洩


三星半導體允許旗下工程師使用 ChatGPT 為輔助工具,快速修復原始程式碼的錯誤,不料洩露會議紀錄、工廠性能、產量等機密資訊。三星已計劃開發類似 ChatGPT 的服務供員工使用,但先限制工程師詢問 ChatGPT 的問題長度。

外媒 Tom′s Hardware 報導,三星半導體已報告 3 起使用 ChatGPT 導致數據洩露事件,且都是最近20天發生。

第一個案例,三星半導體員工提交專有程式原始程式碼給 ChatGPT,以修復錯誤,無意間將最高機密應用程式代碼洩露給其他公司的 AI。

第二個案例,某員工用 ChatGPT 輸入辨識缺陷晶片的測試模式,並要求改善,但辨識缺陷測試序列必須嚴格保密。

第三位員工使用 Naver Clova 應用程式將會議紀錄轉成檔案,再交給 ChatGPT 產生文件。

這些行為讓機密資訊暴露於危險中,所以三星警告員工使用 ChatGPT 必須小心。三星也通知高層和員工,輸入 ChatGPT 的數據會上傳並儲存於外部伺服器,公司無從查閱,也增加機密資訊洩露的風險。

雖然 ChatGPT 功能強大,但開放學習數據功能會將敏感資訊暴露給第三方,在競爭激烈的半導體業是無法接受的事。

三星已準備保護措施,防止再發生類似事故。若再次發生,三星很可能考慮封鎖內網使用 ChatGPT。被問及洩露事件時,三星發言人拒絕證實或否認。

(首圖來源:shutterstock)

延伸閱讀: