2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT的日子还未过去二十天,便爆出了一系列严重的机密资料外泄事件。据韩国媒体《economist》3月30日报道,近期,三星内部发生了三起涉及ChatGPT误用与滥用的案例,其中包括两起“设备信息泄露”和一起“会议内容泄露”。这些敏感信息,如半导体设备测量资料、产品良率等,或已被无意中存入了ChatGPT学习资料库中。
这三起泄密事件均发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门。这一部门负责生产用于手机和其他电子产品的芯片,而最初由于对此类内部机密外泄的担忧,三星甚至一度禁用了ChatGPT。不过,由于半导体是生成式AI的一个关键组成部分,今年3月11日后,这个禁令被放宽,只允许DS部门使用ChatGPT,但装置体验(Device eXperience,简称“DX”)部门仍然禁止使用。
据《economist》报道,一名DS部门的员工A,在执行半导体设备测量资料库(DB)的下载程序时出现了一次错误,他将有问题的原始代码复制到ChatGPT,并询问如何修复。而另一名同事B,把为了追踪产量以及识别不良设备而编写的一段源代码输入到了ChatGPT,并要求其进行优化。此外,还有一位员工C,将会议记录转换为文件并上传到系统,以便让AI制作会议纪要。
虽然该公司向员工公布了这些情况,并强调注意在使用ChatGPT时保持谨慎,但根据媒体透露,如果在输入内容后,该数据会自动传送至外部服务器,那么这种敏感信息可能会遭受潜在威胁。如果通过这样方式学习到内部资料,这可能导致重要数据流失给不受信任的人或实体。
当韩媒向相关人员确认这一消息真实性时,他们表示:“因为这是公司内部的事情,所以很难确认。”然而,这些安全隐患并没有逃过监管机构的注意。就在最近,当地时间3月31日,不远距离内意大利个人数据保护局宣布,从即刻开始禁止所有用户访问聊天机器人服务,即使它是由开发者OpenAI提供。在调查过程中,他们发现平台上存在用户对话数据和付款服务支付信息丢失的情况,而且没有提前告知用户收集他们个人信息的事宜,也缺乏法律依据来支持大量收集和存储个人细节的问题。此前,一位高级管理人员Sam Altman承认错误已经被修正并完成验证。
随着这些事件不断浮现,上述措施只是一个开始。为了防止类似事故再次发生,三星正在采取更多措施来保护其网络免受侵扰,同时也警告说,如果采取紧急措施后仍然有类似事故,它们将不得不考虑暂停与这个平台连接,以确保其网络安全。