2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT仅短短几周时间,便面临着严重的安全风险。据韩国媒体《经济学人》报道,近期在三星内部共发生了三起与ChatGPT相关的安全事件,其中包括两起涉及设备信息泄露和一宗会议内容外泄。
这次泄密事件涉及到了半导体设备测量数据、产品良率等敏感信息,这些数据都被错误地输入到了ChatGPT中。这些数据不仅可能被用于训练AI模型,而且还可能会导致公司的竞争优势受到破坏。
据了解,这些事件均发生在三星电子半导体暨装置解决方案部门。在最初,出于对内部信息安全的担忧,三星禁用了ChatGPT。但后来,由于半导体行业是生成式AI技术发展的一个重要基础,三星决定允许DS部门使用ChatGPT,但仍然禁止DX部门使用该工具。
此外,一名DS部门员工在执行任务时错误地将原始代码复制到ChatGPT,并询问如何解决问题。此外,还有员工将会议记录转换为文件并上传到系统,以便让机器学习程序制作会议纪要。然而,这些操作都违反了公司规定,不仅可能导致数据泄露,还可能影响到公司的商业秘密。
为了防止类似事件再次发生,三星正在采取措施加强对员工使用机器人的监管,并确保所有敏感信息都不被传送到外部服务器。如果发现任何违规行为,即使采取紧急措施也无法阻止,也会考虑切断与该工具的连接。
此事不仅关乎公司内部管理的问题,也引发了有关个人数据保护和隐私权利问题。当地时间3月31日,意大利个人数据保护局宣布禁止使用聊天机器人ChatGPT,并开始调查OpenAI处理意大利用户信息的情况。这背后的原因是平台未经告知用户就收集其对话记录和支付服务支付信息,以及缺乏法律依据来处理这些个人资料。此前OpenAI首席执行官Sam Altman已经承认存在一个错误,使得部分用户与ChatGPT交流记录遭遇泄露,而他已发布致歉声明并修复了漏洞进行验证。