此为历史版本和 IPFS 入口查阅区,回到作品页
Lale智慧服務入口
IPFS 指纹 这是什么

作品指纹

什麼都可以問聊天機器人?保障企業隱私的5個重點

Lale智慧服務入口
·
·
在 ChatGPT 聊天機器人推出受到全球矚目後,Google 也於今年5月宣布旗下 AI 聊天機器人「Bard」,將開放給 180 多個國家、40 個語言的用戶使用。相較於 ChatGPT 目前的功能,Bard 可直接透過網路獲取即時資料、支援語音下達指令。

但近期愛爾蘭「資料保護委員會」DPC 表示,Google 至今尚未提供相關資訊,能完整說明其生成式 AI 工具如何保護歐洲人的隱私,因此 Google 在歐盟推動聊天機器人 Bard 的計劃只能遭到推遲。

隨著聊天機器人的發展,許多企業也會透過聊天機器人來輔助一些工作內容,對於在處理重要資料時,數據須受到完整的保護。但這不僅是供應商在開發過程中應確保工具的安全性,當用戶在使用聊天機器人時,也該要有基本的判斷認知,以確保商業機密不被外洩,在享受科技所帶來的便利時,也能同時保有隱私。

圖片來源:Freepik

使用聊天機器人時,保障企業隱私的5個重點

1.確認聊天機器人隱私政策

當企業需要選擇聊天機器人時,可透過審查供應商提供的隱私政策條款,確認聊天機器人會如何收集、使用、處理數據,並瞭解關於儲存期限和刪除的規定。例如用戶是否可自由選擇關閉聊天記錄,讓所有的對話都不會用於訓練和優化聊天機器人的模型。

 

2.謹慎提供資訊

在和聊天機器溝通的過程當中,須避免提供過多非必要的個人資訊,尤其是能辨識個人的姓名、身分證號碼,或是銀行帳戶密碼、公司內部程式碼等敏感資料。

 

3.第三方數據分享

若聊天機器人與第三方應用或服務進行集成,需確保這些第三方擁有良好的安全措施和隱私保護措施,因為用戶無法完全掌控這些數據的流向。

 

4.留意政策更新

企業須確認聊天機器人的隱私政策更新方式與通知機制,若隱私政策發生變更,會主動通知用戶,並給予用戶選擇接受新的政策或停止使用服務的權利。

 

5.內部訓練提升資安意識

定期為員工提供隱私及資訊安全的相關教育訓練,可提升員工對於使用聊天機器人時的安全認知,降低被釣魚攻擊的風險,並透過公司內部的公告、官網、定期會議等溝通渠道,提醒員工關於隱私和數據保護的重要性。也可明確規定相關政策,例如禁止員工使用未經授權的數據分享方式、制定管理密碼的準則等,讓員工有個規範得以依循。

 

瞭解更多Lale EIM企業即時通訊軟體: https://www.flowring.com/lale-eim/

原文首發於「Lale快報」網站,原文頁面連結

CC BY-NC-ND 4.0 授权