2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT仅短短几周时间,便面临着严重的安全风险。
据韩国媒体《economist》报道,近期在三星内部发生了多起涉及ChatGPT误用与滥用的案例,这些事件都直接威胁到了公司的核心竞争力和用户隐私。其中,一起“设备信息泄露”和两起“会议内容泄露”的事件尤其引发了高度关注。
这些泄密事件中,员工不经意间将敏感资料输入到ChatGPT系统中,而这些数据包括半导体设备测量资料、产品良率等关键信息。这一行为可能会导致这类机密资料被存储在外部服务器上,从而对公司造成巨大的损失。
据了解,这些问题主要出现在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门。而最初,由于担忧内部机密外泄,三星禁用了ChatGPT,但随后考虑到半导体是生成式AI的基础技术,因此允许DS部门使用该工具。不过,对于装置体验(Device eXperience,简称“DX”)部门来说,该限制仍然存在。
值得注意的是,在执行任务时,有一名A职员错误地复制原始代码并输入到ChatGPT询问解决方案;另一名B职员则把用于跟踪产量和检测不良设备的源代码发送给该平台,并要求优化;而C职员更是将会议录音转换为文本文件后上传至系统,以便生成会议纪要。
为了防止此类事故再次发生,三星已经向所有员工发出警告,并通过内部公告解释了当事人的错误以及潜在风险。在使用任何外部服务时,如果数据被传送到外部服务器,那么即使是在学习阶段,也有可能导致重要信息流失或被非法获取。
针对此种情况,不仅企业层面需要采取措施,还有监管机构也开始介入。意大利个人数据保护局宣布从即日起禁止使用聊天机器人ChatGPT,并且正在调查该平台处理意大利用户信息的情况。此前,该平台曾因用户对话记录丢失而受到质疑,而没有提前通知用户收集他们的个人信息,也缺乏法律依据来支持这一做法。
总之,为确保数据安全性和避免未来潜在的问题,一切相关方必须共同努力,加强沟通协作,以确保所有参与者都能理解并遵守最基本的人口统计保护原则。
上一篇:我的小伙伴红米的故事
下一篇:智能化新篇章家居革命的必要性探究