2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT仅短短几周时间,便面临着严重的安全风险。据韩国媒体《economist》报道,近期在三星内部发生了多起涉及ChatGPT误用与滥用的案例,其中包括两起“设备信息泄露”和一起“会议内容泄露”。这些敏感信息被错误地输入到ChatGPT系统中,这可能会导致公司的机密资料外泄。
这次事件主要发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门。这一部门负责半导体设备的研发和生产,而最初由于对这种潜在风险的担忧,三星禁用了ChatGPT。但是,由于半导体技术是生成式AI ChatGPT建构基础上的关键组成部分,为了确保业务运作不受影响,三星允许DS部门使用ChatGPT,但其他部门如装置体验(Device eXperience,简称“DX”)则继续禁止使用。
据悉,一名DS部门员工,在执行半导体设备测量资料库(DB)下载程序源代码时出错,将有问题的原始代码复制到ChatGPT并询问解决方法。此外,还有一名员工将用于产量控制和异常设备检测的源代码输入到ChatGPT以求优化,并且另一位员工将会议录音转换为文本后也传递给了该平台,以便制作会议纪要。
为了防止类似事故再次发生,三星已经向其员工发出警告,并要求他们注意如何使用这个工具。在公司内部公告中解释道,即使是通过官方渠道进行数据处理,也存在安全隐患,因为任何数据都可能被发送到外部服务器。如果这种敏感信息进入一个未经验证的人类或恶意软件的手中,那么它就可能遭遇泄露。
尽管已有措施,但国家监管机构仍然对此表示关注。意大利个人数据保护局已经宣布从即日起禁止使用聊天机器人ChatGPT,并开始调查因用户私密对话和支付记录丢失而产生的问题。该机构认为,该平台缺乏必要的法律依据来收集、存储用户个人信息,并且没有足够告知用户关于他们提供给OpenAI平台所做出的所有事情。
此前,有消息指出OpenAI首席执行官Sam Altman公开承认出现错误,使得一些用户与聊天机器人的对话记录暴露出来。他随后发布了一条致歉推文声称已修复问题并完成了验证过程。