2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT的不到两个月时间里,已经出现了严重的安全漏洞。据韩国媒体《经济学人》(The Economist)报道,三星内部发生了多起涉及ChatGPT误用和滥用的案例,其中包括两起设备信息泄露和一起会议内容泄露。这些敏感信息可能已经被存储在了ChatGPT的学习资料库中。
这三个泄密事件都发生在三星电子半导体暨装置解决方案(Device Solutions, 简称“DS”)部门。这意味着,即使最初出于担忧内部机密外泄而禁用ChatGPT,但由于半导体是生成式AI构建的基础,三星自今年3月11日起允许DS部门使用ChatGPT。而装置体验(Device eXperience, 简称“DX”)部门仍然禁用了这个工具。
据报道,一名A职员在执行半导体设备测量资料库(DB)的下载程序时出现了一次错误,他将有问题的原始代码复制到ChatGPT,并询问如何解决问题。此外,一名B职员将用于监控产量和不良设备的源代码输入到了ChatGPT,并要求优化它。一位C职员则录制了一场会议,将其转换为文件并上传到ChatGPT,以获取会议记录。
三星向员工发布了这些内容,并强调他们必须注意如何使用这个工具。在一个内部公告中,该公司解释说,当用户输入内容到ChatGPT后,这些数据都会传输到外部服务器。如果这种敏感信息被发送给第三方,那么可能会导致严重的问题,比如数据泄露。
当记者询问有关这一情况的事实性质时,一位负责人表示:“因为这是公司内部的事情,所以很难确认。”但是为了防止类似事故再次发生,三星正在采取措施来保护其网络免受潜在威胁。如果采取紧急措施后仍然有类似的问题,上述连接可能会被切断。
此外,不仅公司层面,还有国家监管机构开始关注这个问题。当地时间3月31日,意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,因为该平台没有告知用户收集处理他们信息的情况,也缺乏法律依据来收集和存储个人信息。此前OpenAI首席执行官Sam Altman公开承认错误,并已修复并完成验证。