2024-12-02 数码 0
三星电子自引入ChatGPT不到20天后,涉密资料外泄风波即告浮出。据韩国媒体《经济学人》3月30日报道,近期内,该公司内部共发生了三起与ChatGPT相关的安全事件,其中包括两起“设备信息泄露”和一宗“会议内容泄露”。这些敏感数据,如半导体设备测量结果、产品质量等,都可能已被错误地输入至ChatGPT系统中。
这三起安全事故均发生在三星电子半导体暨解决方案部门(Device Solutions)。该部门最初因担忧内部机密外泄而暂停使用ChatGPT,但鉴于其对生成式AI基础的重要性,公司决定允许其继续运用,但仅限于特定部门。此举引发了一些保守声音称,即便是有限制,也无法完全排除隐私风险。
据悉,一名A职员在执行半导体设备测量资料库下载程序时犯错,将有问题的原始代码复制到ChatGPT并询问解决方法;另一个B职员则将用于追踪产量和识别不良设备的源代码上传至系统,并要求优化。而C职员则将会议录音转换为文本文件后提交给ChatGPT,以便制作会议纪要。
为了防止类似事件再次发生,三星已经向员工发出警告,指出任何输入内容都可能被传送到外部服务器,从而造成严重隐私泄露风险。如果未能采取适当措施来保护信息,那么公司甚至会考虑切断与ChatGPT的网络连接。
此事也吸引了国家监管机构关注。当地时间3月31日,意大利个人数据保护局宣布立即禁止使用聊天机器人服务,并开始调查用户信息丢失案件。该局认为,由于缺乏关于收集和存储个人信息的事先通知以及法律依据,这些操作违反了相关规定。这一决定显示,对于确保用户数据安全,无所不在的人们正越来越关注技术创新带来的潜在风险。