2024-12-02 数码 0
三星电子自引入ChatGPT不到20天后,涉密资料外泄风波迅速展开。据韩国媒体《经济学人》3月30日报道,三星内部共发生三起与ChatGPT相关的误用和滥用事件,其中包括两起“设备信息泄露”以及一宗“会议内容泄露”。这些敏感数据,如半导体设备测量资料、产品良率等,或已经被错误地纳入了ChatGPT学习资料库。
这三个泄密事件均发生在三星电子的半导体暨装置解决方案(Device Solutions,简称“DS”)部门。这场风波最初促使三星担忧内部机密安全,因此禁用了ChatGPT,但考虑到半导体是生成式AI构建基础的关键组成部分,三星决定从今年3月11日开始允许DS部门使用该聊天机器人。不过,这项政策仍然遭到了装置体验(Device eXperience,简称“DX”)部门的反对,他们继续禁用了ChatGPT。
据《经济学人》的报道,一名A级员工在执行半导体设备测量资料库(DB)下载程序源代码时犯下错误,将问题源代码复制到ChatGPT并询问解决方法。一位B级员工则将用于追踪产量和识别不良设备编写的源代码输入至ChatGPT,以求优化。而C级员工更是将手机录制的会议内容转换为文件,并将其上传到外部服务器以制作会议纪要。
为了防止类似事件再次发生,三星向全体员工发出警告,并要求他们注意如何正确使用这个工具。在公司内部公告中解释道,如果员工通过任何方式输入敏感信息至外部服务器,那么这些信息都可能会被传送出去,从而导致重要隐私安全问题。此外,该公司还表示,即便采取紧急措施也不能保证完全避免风险,所以如果类似事故再次发生,将不得不暂停与此聊天机器人的连接。
此举并不仅限于公司层面,有监管机构也开始关注这一潜在风险。当地时间3月31日,意大利个人数据保护局宣布立即禁止使用聊天机器人ChatGPT,并限制开发者OpenAI处理意大利用户信息。该机构指出,由于平台未能及时告知用户收集和处理个人信息,以及缺乏法律依据来支持大量收集和存储个人的支付服务交易记录和对话数据,从而触发了一系列调查行动。