2024-12-02 数码 0
三星电子(Samsung Electronics)在引入聊天机器人ChatGPT仅短短几周后,就暴露了严重的机密资料外泄问题。
据韩国媒体《经济学人》(The Economist)3月30日报道,近期内,三星内部发生了三个与ChatGPT不当使用和滥用的案例,其中包括两起涉及设备信息泄露以及一起会议内容泄露。这些敏感信息,如半导体设备测量数据、产品质量评估等,都可能已经被纳入到了ChatGPT的学习资料库中。
值得注意的是,这些安全漏洞都源自于三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门。而最初,由于对内部机密资料外泄的担忧,三星一度决定禁用ChatGPT。不过,由于半导体技术是生成式AI建构基础的一部分,三星自今年3月11日起重新允许DS部门使用ChatGPT,但对于装置体验(Device eXperience,简称“DX”)部门,则仍然保持禁令。
据《经济学人》报道,一名来自三星DS部门的A员工,在执行半导体设备测量数据下载程序时出现了一次错误,并将包含有问题原始代码复制到ChatGPT以寻求解决方案。此外,还有一位B员工直接将用于监控产量和识别不良设备的源代码输入到ChatGPT,并要求优化它。最后,有一个C员工则将手机录制的会议内容转换成文件格式,然后再次向ChatGPT提供,以便制作会议纪要。
针对此类事件,三星已经向其员工公开了相关情况,并强调了正确使用 Chat G P T 的重要性。在一次内部公告中,该公司解释道,当任何内容被输入到 Chat G P T 后,它们都会被发送至外部服务器。如果这种敏感信息进入外部系统,那么它们就可能会遭遇潜在风险,从而导致更严重的问题。
面对这一危机,不仅企业层面需要采取行动,而且监管机构也开始关注这一问题。当地时间3月31日,即意大利个人数据保护局宣布从即刻起禁止使用聊天机器人 Chat G P T,并限制开发公司 Open AI 处理意大利用户信息并立案调查。这背后的原因是,该平台曾经出现过用户对话记录和支付服务支付信息丢失的情况,而该平台没有明确告知收集处理用户信息,也缺乏法律依据来支持大量收集和存储个人数据的事宜。
此前3月23日,由OpenAI首席执行官Sam Altman公开承认,他们发现开源库中存在错误,使得一些用户与 Chat G P T 的交流记录遭受泄露。他随后发布致歉声明表示已修复错误并进行验证工作。