2024-12-02 智能 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT的短暂兴奋期刚刚过去,内部安全漏洞已经暴露无遗。据韩国媒体《经济学人》(The Economist)3月30日报道,近日在三星内部发生了至少三起与ChatGPT相关的涉密资料外泄事件,这些事件包括两起“设备性能数据泄露”和一宗“高层会议记录泄露”。这些敏感信息,如半导体设备测量数据、产品质量控制标准等,都可能已经被错误地纳入了ChatGPT学习资料库中。
这三起安全事故都发生在公司的半导体暨装置解决方案部门(Device Solutions, 简称“DS”)。最初,由于对潜在风险的担忧,三星甚至考虑禁用ChatGPT,但鉴于半导体技术是生成式AI研发的基石,公司决定允许DS部门使用该工具。不过,对于装置体验部门(Device eXperience, 简称“DX”),则仍然坚持禁止使用。
据《经济学人》披露,一名工作人员A,在进行半导体设备测量数据库下载程序源代码时出错,将问题代码复制到ChatGPT并询问如何解决。此外,还有一位员工B将用于监控产量和排除不良设备的问题代码输入到ChatGPT,并要求优化。而另一位员工C,则将手机录制会议内容转换为文件后输入到ChatGPT,以获取会议纪要。
三星随后向员工通报了这些情况,并强调了正确使用ChatGPT的重要性。公司通过内部公告解释说,即使是简单地输入内容至聊天机器人,也会导致敏感信息传送至外部服务器,从而存在泄密风险。如果让这些敏感信息进入训练过程,那么隐私保护就更是不堪设想。
当被查询确认消息真实性的时候,该公司负责人回应说:“由于这是内部事务,所以很难提供具体细节。”为了防止类似事故再次发生,三星正在采取紧急措施,以确保其网络系统不会因未经授权的情况下连接到任何可疑或未知来源。
此举并不孤立;全球各地监管机构也开始关注这一问题。当地时间3月31日,意大利个人数据保护局宣布自即日起禁止使用聊天机器人服务,并限制开发者OpenAI处理意大利用户数据。在此之前,有用户报告发现他们与chatgpt之间的一些对话以及付款服务支付信息丢失。该机构指出,没有适当告知收集及处理用户个人信息,同时缺乏法律依据来支持大量收集和存储个人数据的事实也激发了调查行动。
此前OpenAI首席执行官Sam Altman公开承认出现一个开源库中的错误,这导致部分用户与chatgpt交谈记录遭泄露。在同一天,他发布了一条致歉推文表示已修复错误并完成验证。这一系列事件揭示了即便是最先进的人工智能工具,如果不加以管理,就可能成为威胁企业安全的大门。