2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT的计划,仅在短暂的20天后便被迫重新考虑其安全性。据韩国媒体《economist》报道,内部员工因误用或滥用ChatGPT而导致了至少三起涉及机密资料外泄的事件,其中包括两起设备信息泄露和一宗会议内容泄露。这表明,一些敏感数据,如半导体设备测量资料、产品良率等,或已经被输入到ChatGPT学习资料库中。
这些事件都发生在公司的半导体暨装置解决方案部门内,这个部门是生成式AI技术发展的基石。最初,由于担忧内部信息外泄,三星禁用了ChatGPT,但随后允许该部门使用它,因为他们认识到半导体行业对这种技术至关重要。此外,装置体验部门仍然禁止使用这个工具。
据报道,一名DS部门员工错误地复制了一段有问题的原始代码并将其输入到了ChatGPT以寻求解决方法;另一个员工则将用于跟踪产量和识别不良设备的源代码提交给了它,以进行优化;最后,一位C职员将手机录制的一次会议转换成文件,并要求ChatGPT制作会议纪要。
为了防止类似事故再次发生,三星向所有员工发出警告,并通过内部公告解释说,即使是在使用过程中,如果用户将敏感内容传输到外部服务器,那么这可能会导致关键信息泄露。虽然公司方面表示,他们很难确认这些报告是否准确,但已开始采取措施来保护自己免受潜在风险影响。
此举不仅限于公司层面,也引发了国家监管机构对于数据安全风险的问题。当地时间3月31日,意大利个人数据保护局宣布,从即日起禁止任何组织使用聊天机器人系统,并立案调查OpenAI处理意大利用户信息的情况。这是因为该平台出现过用户对话数据与支付服务支付信息丢失的情况,而没有提前告知用户收集处理他们个人信息的事实,以及缺乏法律依据来支持大量收集和存储个人信息的事宜。此前OpenAI首席执行官Sam Altman公开承认了开源库中的错误,该错误导致部分用户与ChatGPT交互记录被泄露,他也发布了一份致歉声明并声称已经修复问题并完成验证工作。