2024-12-02 数码 0
三星电子自引入ChatGPT不到20天后,涉密资料外泄事件已连续发生三起,震惊业界。据韩国媒体《经济日报》报道,三星内部的半导体暨装置解决方案部门在使用ChatGPT时出现了严重安全漏洞,一些机密数据被无意中输入到外部服务器。
这三个泄露事件包括两起设备信息泄露和一起会议内容泄露。其中,有的敏感数据甚至已经被纳入到了ChatGPT学习资料库中。这不仅损害了公司的声誉,也对用户的个人信息构成了潜在威胁。
尽管最初三星因担忧内部机密外泄而禁用了ChatGPT,但考虑到半导体技术是生成式AI基础设施的一部分,公司决定允许其半导体暨装置解决方案部门使用ChatGPT。不过,这个部门仍然必须小心翼翼地操作,以避免再次发生类似的安全事故。
据悉,一名员工在执行半导体设备测量资料库(DB)下载程序时出错,将问题代码复制到ChatGPT并询问解决方法。此外,还有员工将为了提高产量和识别不良设备而编写的源代码输入到系统,并要求优化。而第三起案例则是一位员工将会议内容转换为文件后上传至平台以制作会议纪录。
面对这些问题,三星向员工发布了警告,并通过内部公告强调了正确使用聊天机器人的重要性。在输入任何内容之前,都会自动传输到外部服务器,因此任何敏感信息都可能遭受侵犯。如果这种情况再次发生,即使采取紧急保护措施,也有可能需要切断与该平台的连接。
此事也吸引了国家监管机构关注。当地时间3月31日,意大利个人数据保护局宣布禁止使用聊天机器人ChatGPT,并开始调查该平台处理意大利用户信息的情况。原因是该平台曾经出现过用户对话数据和付款服务支付信息丢失的问题,而没有进行合适告知,也缺乏必要法律依据来收集和存储个人信息。
此前OpenAI首席执行官Sam Altman公开承认错误导致部分用户与系统交互记录被泄露,并表示已经修复并完成验证。但是,这样的误差让人们意识到了即便是最先进的人工智能工具,其安全性也是不可或缺的一环。