2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT的不到两个星期,已经面临着严重的安全隐患。据韩国媒体《经济学人》3月30日报道,近期在三星内部发生了至少三起与ChatGPT相关的误用和滥用事件,其中包括两起涉及设备信息泄露以及一宗会议内容外泄。这意味着潜在的机密资料,如半导体设备测量数据、产品良率等,都有可能被错误地存储到ChatGPT系统中。
这三个泄密事件均发生在公司旗下的半导体暨装置解决方案部门。而最初,由于对内部敏感信息外泄的担忧,三星决定暂时禁用ChatGPT。但鉴于半导体技术是生成式AI基础设施的一部分,公司最终决定允许DS部门从3月11日开始使用该平台,但同时将DX部门中的使用权限限制。
据报道,一名DS部门员工不慎复制了一段包含问题代码的原始文件并询问ChatGPT提供解决方案;另一位员工则将用于监控产量和识别异常设备的问题代码输入到了AI系统中,以寻求优化建议;而第三位员工录制会议内容后,将其转换为文本格式,并要求ChatGPT制作会议纪要。
尽管如此,这些操作都违反了公司对于如何正确使用此类工具的指南。根据官方声明,在任何情况下,如果用户向ChatGPT提供了敏感或受保护信息,这些数据都会被传输至外部服务器,从而增加了外部访问这些敏感资料的风险。如果这种行为持续存在,即使采取紧急措施也难以防止进一步的事故发生,因此公司不得不考虑断开与该服务的大型网络连接作为最后的手段来确保安全性。
此举并非仅限于企业层面,对于个人数据保护机构来说,也是一个值得关注的话题。在意大利,该国个人数据保护局已经因为用户隐私受到威胁而宣布禁止使用ChatGPT,并对开发商OpenAI进行调查。此前,有报告指出该平台存在用户对话记录和支付信息丢失的情况,而没有明确告知用户他们收集和处理哪些个人信息,以及缺乏法律依据支持这一做法。尽管OpenAI已承认错误并采取行动修复,但这个案例提醒我们必须更加谨慎地管理我们的数字生活,以防止未来的隐私侵犯事件。