2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT的短暂兴奋后,几乎在20天内就遭遇了严重的机密资料外泄危机。据韩国媒体《经济学人》(The Economist)3月30日报道,近期内,三星内部发生了至少三起与ChatGPT相关的误用和滥用的事件,这些事件包括两次涉及设备信息泄露以及一次会议内容泄露。这些敏感数据,如半导体设备测量结果、产品质量率等,都有可能已经被错误地输入到ChatGPT系统中。
这三起泄密事件都发生在公司的半导体暨装置解决方案部门(Device Solutions, 简称“DS”)。最初,由于对内部秘密信息外泄的担忧,三星禁用了ChatGPT。但是,由于半导体技术是生成式AI发展不可或缺的一部分,以及基于此技术基础之上的考虑,自今年3月11日起,该部门得以重新启用ChatGPT。然而,对于装置体验部门(Device eXperience, 简称“DX”),该限制仍然有效。
据《经济学人》报道,一位名为A的人员,在执行一项下载半导体设备测量库程序源代码时出现了一处错误,然后将含有问题原始代码复制粘贴到ChatGPT并询问如何修复。此外,一位名为B的人员将用于追踪产量和识别不良设备编写的源代码发送到了ChatGPT,并要求优化其性能。而另一位C人员,则录音会议内容转换成文件并上传至该平台,以便生成会议记录。
随着这一系列事件曝光,三星向员工发布公告警告他们注意使用方式,并解释了一旦数据通过任何形式传输给外部服务器,即使只是学习过程中,也存在敏感信息被盗取的问题。
对于媒体查询是否确实发生此事而言,他们表示由于涉及内部情况难以证实,但正在采取措施防止类似事故再次发生。如果即使采取紧急保护措施也无法避免类似问题,其公司网络可能会切断与ChatGPT服务的连接。
除了企业层面的安全风险,不同国家监管机构也开始关注这种潜在威胁。当地时间3月31日,意大利个人数据保护局宣布禁止使用聊天机器人系统,因为它未能遵守用户隐私保护规定,并且缺乏收集个人数据所需法律依据。此前,该平台曾经因用户对话记录和付款信息丢失而受到批评,而首席执行官Sam Altman公开承认了这个错误,并声称已修复并进行验证工作。