2024-12-02 智能 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT仅短短几周时间,便面临着严重的数据安全隐患。据韩国媒体《economist》报道,近期在三星内部发生了多起涉及ChatGPT误用与滥用的事件,这些事件不仅触及了公司的核心竞争力,还可能导致其对外部服务器进行敏感信息的传输。
这些泄密事件主要集中在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门,其中包括两起“设备信息泄露”和一起“会议内容泄露”。这些涉嫌泄露的内容涵盖了半导体设备测量资料、产品良率等关键信息,这些都是三星公司宝贵财富,也是其竞争优势所在。
据悉,这些误用与滥用的行为都源于员工未能正确理解或遵守公司关于使用ChatGPT的政策。例如,一名员工错误地将包含有问题原始代码复制到ChatGPT并询问解决方法;另一个员工则将为了提高产量而编写的源代码输入到ChatGPT,以便优化;还有一个员工甚至将会议录音转换为文件后输入到ChatGPT,以制作会议纪要。
尽管如此,三星电子仍然允许DS部门使用ChatGPT,但对于装置体验(Device eXperience,简称“DX”)部门,则继续保持禁令。这一决定显然是基于对生成式AI技术基础之半导体行业的一种考虑,以及对数据安全风险的一种评估。
为了防止类似事故再次发生,三星正在采取一系列措施来保护其内部网络免受潜在威胁。该公司已经向所有员工发出警告,如果即使采取了紧急信息保护措施后仍有类似情况出现,将切断与外部服务器连接。此举显示出公司对于这场新兴科技带来的挑战以及相关责任承担态度非常严肃。
此外,不同国家监管机构也开始关注这一问题。在意大利个人数据保护局宣布禁止使用聊天机器人ChatGPT,并立案调查之后,全球各地企业和监管机构都意识到了需要加强对这种新型AI技术影响下的数据安全管理能力。此前OpenAI首席执行官Sam Altman公开承认存在错误并致歉,此次事件提醒我们,即便是在最先进科技领域,也不能忽视基本的人类价值观,如隐私权和数据安全。