消弭機密外洩風險 三星傳內部禁用生成式AI工具
在爆出機密外洩事件後,三星電子 (005930-KR) 以資料安全考量為由,宣布禁止自家員工使用 ChatGPT、Bard 和 Bing 等生成式人工智慧 (AI) 工具。
根據彭博取得的內部備忘錄,三星向底下最大的其中一個部門宣布這項新政策,理由是公司擔心傳輸到這類 AI 平台的資料,因為被儲存在外部伺服器而難以取回或刪除,最終恐導致資料外洩。
三星表示:「公司內外部對於 ChatGPT 等生成式 AI 平台的興趣不斷提高,然而,在將焦點放在工具實用性與效率的同時,對於生成式 AI 帶來安全風險的擔憂也與日俱增。」
備忘錄指出,三星的新政策包含禁止在公司自有電腦、平板、智慧手機以及內部網路使用生成式 AI 系統,但不會影響賣給消費者的設備,例如 Android 智慧手機和 Windows 筆電。
三星還要求在個人設備上使用 ChatGPT 或其他 AI 工具的員工,不要洩露與公司智慧產權相關的訊息和個人資料,違者將遭受紀律處分,甚至可能遭到解僱。
除了三星以外,早在今年 2 月,也就是 OpenAI 推出 ChatGPT 幾個月後,摩根大通、美國銀行和花旗等華爾街銀行就已禁止或限制自家員工使用 ChatGPT,義大利政府上月初也以隱私疑慮為由暫時禁用 ChatGPT,但已在上周撤銷禁令。
三星上月針對內部使用 AI 工具進行一項調查,65% 受訪者認為這類工具存在安全風險。一位三星工程師 4 月初以 ChatGPT 為輔助工具修復原始程式碼時,意外導致公司機密外洩。
備忘錄指出:「總部正在評估措施,創造一個安全的環境,讓生成式 AI 能夠安全地被使用,幫助提升員工的生產力和效率,但在這些措施就定位以前,我們將暫時限制使用生成式 AI。」
與此同時,三星也在努力開發自家的 AI 工具,用於翻譯、文件彙整和軟體開發,同時研究防止將敏感資料上傳到外部伺服器的方法。
三星電子拒絕對上述報導置評。
本篇文章不開放合作夥伴轉載