2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT的日子还未过去二十天,就爆出严重的机密资料外泄事件。据韩国媒体《经济学人》3月30日报道,近期内,三星内部发生了三起与ChatGPT相关的安全漏洞事件,其中包括两起涉及设备信息泄露和一起会议内容泄露。这意味着半导体设备测量数据、产品合格率等敏感信息或已经被错误地纳入到了ChatGPT学习资料库中。
这些安全事故都发生在三星电子半导体暨装置解决方案部门,这个部门是公司重要的核心业务领域。而最初,由于对内部机密信息安全担忧,三星甚至一度考虑全面禁用ChatGPT。不过鉴于半导体技术是生成式AI基础所需,而且考虑到其在解决方案方面的潜力,公司决定自今年3月11日起允许DS部门使用ChatGPT,但对于装置体验部门仍然保持禁令。
据悉,在这次事件中,一名A职员在执行半导体设备测量数据库下载程序时犯了一个致命错误,他将包含有问题原始代码复制并输入到ChatGPT,并询问如何修复。而另外两名B和C职员则分别将用于优化产量和编写不良设备检测源代码,以及转换会议录音为文件后,将它们分别输入到ChatGPT,以获取帮助制作会议纪要。
面对这一系列突发情况,三星电子向所有员工发出警告,并通过内部公告强调必须注意正确使用聊天机器人。公司解释道,无论何种方式,如果涉及敏感内容进行传输,都可能导致隐私泄露,因为这些输入会被自动发送至外部服务器,从而使得高级用户能够访问该内容。如果这种情况持续存在,那么即便采取紧急措施,也无法完全防止进一步的问题产生。
为了确保不会再出现类似的事故,三星正在加紧研发新的保护措施,以防止通过任何渠道发生信息流失。此外,该公司已向员工明确表示,即若在采取额外保护措施后仍有类似问题发生,将不得不暂停或者彻底断开与该平台的连接。
此举并不仅限于企业层面的反应,还引发了监管机构关注。在当地时间3月31日,一些国家监管机构开始介入调查。意大利个人数据保护局宣布从即日起禁止使用聊天机器人服务,并立案调查理由是平台未能妥善处理用户对话数据以及支付服务支付信息丢失的情况,同时缺乏合法依据来收集和存储个人数据。此前OpenAI首席执行官Sam Altman公开承认出现错误导致部分用户与系统交互记录被误传播,当时他发布了一份致歉声明并承诺已经修复并完成验证工作以避免未来再次发生类似问题。