2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT仅短短几周时间,便面临着严重的安全风险。据韩国媒体《经济学人》报道,近期在三星内部共发生了三起与ChatGPT相关的安全事件,其中包括两起涉及设备信息泄露和一宗会议内容外泄。
这次泄密事件涉及到了半导体设备测量数据、产品良率等敏感信息,这些数据或已被错误地输入到ChatGPT学习资料库中。这些事件均发生在三星电子半导体暨装置解决方案部门,即“DS”部门。
最初,为了防止内部机密外泄,三星禁止了所有员工使用ChatGPT。但随后公司意识到由于半导体技术是生成式AI的基础,所以自今年3月11日起允许DS部门继续使用该工具,而装置体验部门则仍然禁用它。
据报道,在执行半导体设备测量资料库下载程序时,一名A职员出错,将有问题的原始代码复制到ChatGPT并询问如何修复。而另一名B职员将用于监控产量和识别不良设备的源代码输入到了ChatGPT以寻求优化建议。此外,一位C职员还将会议录音文件转换为文本,并要求ChatGPT制作会议纪要。
尽管如此,三个工作人员都未意识到他们所做的事情可能会导致敏感信息被传送至外部服务器。根据公司公告,如果用户通过任何方式将内部资料发送给第三方服务,如Chatty AI,那么这些信息就会被上传到一个位于美国加利福尼亚州圣克拉拉谷地区的一个远程服务器。这意味着即使是意图保护隐私但错误操作也可能导致重要数据流失。
针对此类情况,Samsung正在采取紧急措施来限制对其网络系统的访问,以防止进一步的潜在威胁。如果再次出现类似的问题,该公司已经宣布准备切断与聊天机器人的连接,并且强调如果任何紧急措施失败,它们将不得不考虑更极端的手段,比如完全封锁内部网络以保护其核心业务免受潜在攻击。
此前,有消息指出意大利个人数据保护局已经开始调查OpenAI平台,因为该平台没有告知用户他们收集哪些个人信息,也没有提供足够明确关于如何处理这些信息以及是否有合法理由进行这样的处理。此举显示出政府机构对于新兴技术带来的隐私风险越来越关注,并准备采取行动来保障公民权益。