2024-12-02 智能 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT仅短短几周时间,便面临着严重的安全风险。
据韩国媒体《economist》报道,近期在三星内部发生了多起涉及ChatGPT误用与滥用的案例,这些事件都直接威胁到了公司的核心利益。其中,有两起“设备信息泄露”和一 起“会议内容泄露”的事件被曝光,涉及到的敏感数据包括半导体设备测量资料、产品良率等。
这些泄密事件均发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门。这一部门是公司重要的技术研发中心,对于保持其竞争力至关重要。而最初为了防止内部信息外泄,三星就禁用了ChatGPT。但鉴于半导体行业是生成式AI的基础领域,三星决定自今年3月11日起允许DS部门使用ChatGPT,但对于装置体验(Device eXperience,简称“DX”)部门则仍然坚持禁令。
据悉,在执行任务时,一名A职员错误地复制了有问题的原始代码到ChatGPT,并询问如何解决问题;另一位B职员将用于监控产量和不良设备编写的源代码输入到系统中,以求优化;而C职员则将手机录制的会议内容转换为文件后输入到系统中,以制作会议纪要。
针对这些违规行为,三星向所有员工发出警告,并要求他们注意使用聊天机器人的方式。此外,该公司还通过内部公告明确指出,当任何数据被输入到外部服务器时,都存在潜在风险。如果不慎,将会导致高度敏感信息被非法获取或利用,从而给公司带来巨大的法律责任和商业损失。
为了防范此类事故再次发生,同时也响应市场对数据安全越来越高的问题意识,相关国家监管机构已经开始介入调查。在意大利个人数据保护局宣布从即日起禁止使用聊天机器人ChatGPT并立案调查之后,这个话题引发了广泛关注。该局认为,由于没有通知用户并缺乏收集处理个人信息合法依据,因此需要采取措施限制OpenAI平台处理意大利用户信息。
此前OpenAI首席执行官Sam Altman公开承认开源库中的错误导致部分用户与ChatGPT的聊天记录被泄露,并表示已修复错误并完成验证。他发布致歉推文表达道歉之情。
随着这种类型的情况不断出现,我们可以看到,即使是在最先进技术创新过程中,也不能忽视隐私保护和数据安全这一基本原则。因此,不仅是企业,更是整个社会都需要共同努力,为维护每个人的权益提供一个更加可靠、安全的地球舞台。