2024-12-02 智能 0
三星电子(Samsung Electronics)在引入聊天机器人ChatGPT仅短短几周后,就暴露了严重的安全隐患。据韩国媒体《economist》报道,近期内部发生了多起涉及ChatGPT误用与滥用的事件,其中包括两起“设备信息泄露”和一起“会议内容泄露”。这些敏感数据,如半导体设备测量资料、产品良率等,都可能被存入ChatGPT的学习资料库中,从而面临外部服务器传输的风险。
这些错误行为主要发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门。最初,由于对内部机密数据外泄的担忧,三星禁用了ChatGPT,但随后考虑到半导体行业是生成式AI技术发展的基础,该公司自今年3月11日起允许DS部门使用ChatGPT,只是将其应用范围限制于特定的业务流程中。而装置体验(Device eXperience,简称“DX”)部门仍然保持禁用状态。
一名A职员在执行半导体设备测量资料库(DB)下载程序时出现错误,将有问题的原始代码复制到ChatGPT并询问解决方法;B职员则把为了提高产量和识别不良设备而编写的源代码输入到ChatGPT以求优化;C职员更直接将手机录制的会议内容转换为文件后输入到系统要求制作会议纪要。这系列操作都违反了公司关于使用第三方工具和服务时所需遵守的一系列规定。
三星通过内部公告警告员工注意此类操作,并解释说,在任何情况下,如果通过任何方式向外部服务器传送或上传敏感信息,这些信息都可能会被未经授权的人士访问。该公司表示,如果即使采取了所有必要措施,也再次出现类似事故,它将不得不采取进一步行动,如暂停或终止与该服务相关联的大部分网络连接。
此事件并非孤立存在。在意大利个人数据保护局宣布禁止使用聊天机器人ChatGPT之后,该机构已经开始调查用户信息丢失的情况。此前,OpenAI首席执行官Sam Altman公开承认他们的一个开源库出现错误导致某些用户与平台之间私密对话记录遭泄露,并声称已修复问题并进行验证。此事件凸显出即便是业界领先企业也难逃安全漏洞之苦,并强调对于高度敏感数据处理必须格外小心,以避免未来更多潜在威胁。