2024-12-02 数码 0
三星电子(Samsung Electronics)在引入聊天机器人ChatGPT后,仅短短数日,便爆出严重的涉密资料外泄事件。
据韩国媒体《经济观察报》报道,近期内,三星内部共发生了四起与ChatGPT相关的安全事故,其中包括两起“设备信息泄露”和两起“会议内容泄露”。这些敏感信息,如半导体设备测量数据、产品质量评估报告等,或已被无意中输入到了ChatGPT系统中,这对公司的商业秘密造成了严重威胁。
调查发现,这些安全漏洞主要集中在三星电子半导体暨解决方案部门(Device Solutions, 简称DS),该部门负责研发和生产高端芯片。最初,由于担忧内部机密被外洩,三星甚至一度全面禁用ChatGPT。但随着AI技术不断进步,对半导体制造过程中的数据分析和优化有着不可或缺的地位,公司决定允许DS部门使用ChatGPT,但对于其他部门如装置体验(Device eXperience, 简称DX)的使用则仍然坚决禁止。
据《经济观察报》详细揭示,一名DS部门员工在编写源代码时不慎将其复制粘贴到ChatGPT,并询问如何修复错误;另一名员工则向AI平台提交了用于评估产量和排除故障的原始代码以求优化建议;而第三名员工竟将手机录制的重要会议内容转换为文本并上传至系统,以便生成会议纪要。这一系列不当操作都违反了公司关于敏感信息处理的指导原则。
为了防止类似事件再次发生,三星已经就此事向全体员工发布警告,并明确指出,即使是通过官方渠道,如果未经授权地将内部资料输入到外部服务器,也可能会导致重大隐私泄露问题。该公司还表示,如果未来再有类似情况出现,将立即采取紧急措施切断与ChatGPT的大数据连接。
此外,不仅企业层面如此,当地监管机构也对这种隐私风险保持高度关注。在意大利个人数据保护局(Garante della Privacy)的介入下,该局已经宣布自3月31日起暂停所有与OpenAI开发者有关联的用户服务活动,并启动正式调查。此前,该平台因没有妥善处理用户对话记录及支付信息丢失的问题而受到质疑,而且缺乏合法依据来收集和存储大量个人数据。
值得注意的是,此次事件暴露出一个深刻的问题:即便是大型科技企业,也难免因为过度依赖新兴技术而忽视基本的人性工程和安全管理原则。在全球范围内,无论是政府还是民众,都越来越意识到必须加强对智能机器人等新兴工具使用方式进行规范,以保障个人的隐私权益。