2024-12-02 数码 0
三星电子(Samsung Electronics)在引入聊天机器人ChatGPT后,仅短短数日,便爆出严重的涉密资料外泄事件。据韩国媒体《经济学人》(The Economist)3月30日报道,近期内,三星内部发生了多起与ChatGPT相关的安全问题,其中包括两起“设备信息泄露”和一宗“会议内容泄露”。这些敏感信息,如半导体设备测量数据、产品合格率等,都可能已经被输入到ChatGPT学习数据库中。
这些事件均源自三星电子半导体暨装置解决方案部门(Device Solutions, 简称DS)。最初,由于对内部机密资料的担忧,三星禁用了ChatGPT。但随着AI技术在半导体领域不可或缺的地位被认可,今年3月11日起,该公司允许DS部门使用ChatGPT,而装置体验部门(Device eXperience, 简称DX)仍然禁止其使用。
据《经济学人》披露,一名DS部门员工A,在执行半导体设备测量数据库下载程序时出现错误,并将有问题的原始代码复制到ChatGPT寻求帮助;另一名员工B,将用于追踪产量和识别不良设备的源代码输入到了该平台,以要求优化;而C职员则将手机录制会议内容转换为文件后上传至ChatGPT,以制作会议记录。
这次事件导致三星向所有员工发出警告:任何未经授权地输入敏感信息到外部服务器都会造成严重后果。该公司通过内部公告明确指出,即使是简单地询问是否可以使用某个功能,也会涉及传输数据给外部服务器,因此如果让这些敏感内容进入系统,就无法保证不会发生泄露。
当被问及此事真实性时,一位来自公司高层的人士表示:“由于这是一个内部的问题,所以很难确认具体情况。”然而,这些行为已引发了一系列关于如何保护个人数据不受滥用的讨论。此前,有消息表明意大利监管机构已经开始调查OpenAI处理用户个人信息的情况,并且从即日起禁止使用ChatGPT直至进一步通知。这背后的原因是该平台曾经出现过用户对话记录和支付服务支付信息丢失的情况,而且没有提前告知用户收集他们的个人信息,以及缺乏必要法律依据来支持这一做法。