2024-12-02 数码 0
三星电子(Samsung Electronics)在引入聊天机器人ChatGPT仅短短几周后,就暴露了严重的安全隐患。据韩国媒体《economist》报道,近期内部发生了多起涉及ChatGPT误用与滥用的事件,其中包括两起“设备信息泄露”和一起“会议内容泄露”。这些敏感数据,如半导体设备测量资料、产品良率等,都被输入到了ChatGPT中,这些内容可能已经被嵌入到其学习资料库中。
这三起泄密事件都发生在三星电子半导体暨装置解决方案部门,而最初出于对内部机密外泄的担忧,三星甚至考虑禁用ChatGPT。不过,由于半导体技术是生成式AI的基础构建,三星最终允许DS部门使用ChatGPT,但装置体验部门仍然坚持禁用。
据报道,一名A职员在执行半导体设备测量资料库下载程序时出现错误,并将原始代码复制到ChatGPT以求解问题;另一位B职员则将用于监控产量和不良设备的源代码输入到ChatGPT要求优化;而C职员则将手机录制的会议内容转换为文件后上传至外部服务器,以便通过AI系统制作会议纪要。
针对此类事件,三星向所有员工发出警告,并强调任何未经授权地输入公司敏感信息至外部平台都会导致严重后果。这也提醒了所有用户,即使是经过验证且声称具有高度安全性的服务,也不能轻易放松对个人数据保护措施。
为了防止未来再次发生类似事故,三星正在采取一系列紧急措施来加强其IT网络安全。此外,不同国家监管机构也开始关注这一问题。在意大利,该国个人数据保护局已宣布从即日起禁止使用聊天机器人ChatGPT,并开始调查该平台处理用户信息的情况。该局指出,在3月20日,有用户报告发现他们与机器人的对话记录以及付款服务支付信息丢失,而OpenAI没有提供足够的通知或法律依据来合法收集和存储这些个人信息。