2024-12-02 智能 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT的不到两个星期,内部就发生了涉及机密资料外泄的事件。据韩国媒体《经济学人》(The Economist)报道,近日在三星内部共有三起与ChatGPT相关的误用或滥用案例,其中包括两起“设备信息泄露”和一宗“会议内容泄露”。这些涉及的敏感内容可能已经被存储于ChatGPT学习资料库中。
这三个泄密事件均发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门。最初,由于对内部机密安全性的担忧,三星禁用了ChatGPT,但随后考虑到半导体技术是生成式AI基础设施的一部分,这家公司自今年3月11日起允许DS部门使用该工具,而装置体验(Device eXperience,简称“DX”)部门则仍然禁用了它。
据《经济学人》报道,一名A职员在执行半导体设备测量资料库(DB)的下载程序时出错,将问题代码复制到ChatGPT并询问解决方案。此外,一位B职员将用于监控产量和处理不良设备的问题源代码输入到了这个AI,并要求其进行优化。而C职员则将会议记录转换成文件格式,并通过此渠道获取会议纪要。
除了上述错误之外,该公司还向员工通报了这些情况,并强调他们必须正确使用聊天机器人。通过内部公告,他们解释说,即使是在提供给ChatGPT之后,这些数据也会传输到外部服务器。如果让这种敏感信息进入学习过程,那么它们就会面临被盗用的风险。
当记者追踪确认消息真实性时,对话中的负责人员表示,“由于这是一个内部事务,所以很难确认。”为了防止类似事故再次发生,三星正在制定新的保护措施,以确保不会因为使用聊天机器人的方式而导致更多信息泄露。该公司告诫员工,如果采取紧急措施后仍然出现类似情况,它们可能需要断开与聊天机器人的网络连接。
此举不仅限于企业层面,还影响到了国家监管机构。这场风波吸引了意大利个人数据保护局注意,当地时间3月31日,该局宣布禁止所有用户使用聊天机器人即刻生效,并开始调查开发OpenAI处理意大利用户数据的情况。这背后的原因是平台上曾经出现过用户对话数据和付款服务支付信息丢失的情况,而且没有告知收集、处理用户信息,也缺乏法律依据来支持大量收集和存储个人信息的事项。
之前3月23日,上线首席执行官Sam Altman公开承认开源库中存在错误,使得一些与chatgpt交谈者的私下交流被曝光。在那一刻,他发布了一条致歉推文,声称已经修复了这一漏洞并完成验证工作。
来源:澎湃新闻
上一篇:AI时代的隐私保护数据安全在哪里