2024-12-02 智能 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT仅短短几周时间,便面临着严重的安全风险。据韩国媒体《经济学人》报道,近期在三星内部共发生了三起与ChatGPT相关的安全事件,其中包括两起涉及设备信息泄露和一宗会议内容外泄。
这次泄密事件涉及到了半导体设备测量数据、产品良率等敏感信息,这些数据或已被错误地输入到ChatGPT学习资料库中。这些事件均发生在三星电子半导体暨装置解决方案部门,即“DS”部门。
最初,由于担忧内部机密被外泄,三星决定禁用ChatGPT,但随后考虑到半导体技术是生成式AI基础技术的核心部分,公司自今年3月11日起允许DS部门使用该工具,而装置体验部门则继续禁止使用。
据报道,一名A职员在执行半导体设备测量资料库下载程序时出现了编程错误,并将问题代码复制粘贴到ChatGPT寻求帮助。此外,还有另一名B职员将用于监控产量和排除不良设备的源代码输入给ChatGPT以优化。而C职员则将会议录音转换成文本文件并上传至平台,以便生成会议记录。
为了防止类似事件再次发生,三星已经向其员工发布公告,并强调任何输入内容都可能传输到外部服务器,从而导致敏感信息被非法获取。如果这种情况再次发生,公司可能会采取紧急措施切断与ChatGPT的网络连接。
此事也引起了国家监管机构对于数据安全风险的关注。意大利个人数据保护局宣布从当地时间3月31日开始限制对话机器人的使用,并立案调查,因为该平台未能妥善处理用户隐私保护的问题。此前,该首席执行官Sam Altman承认开源库中的错误导致部分用户与聊天记录丢失,他已经致歉并修复了错误进行验证工作。