2024-12-02 数码 0
三星电子(Samsung Electronics)在引入聊天机器人ChatGPT仅短短几周后,就暴露了严重的安全隐患。据韩国媒体《economist》报道,近期内部发生了多起涉及ChatGPT误用与滥用的事件,其中包括两起“设备信息泄露”和一起“会议内容泄露”。这些敏感数据,如半导体设备测量资料、产品良率等,都被输入到ChatGPT学习资料库中,这可能导致公司的核心竞争力外泄。
这三起泄密事件都发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门。这一部门负责研发和生产用于智能手机、笔记本电脑等电子产品的芯片。最初,由于对内部机密信息的担忧,三星禁用了ChatGPT。但是,由于半导体行业是生成式AI技术发展的基石,公司决定允许DS部门使用该工具,但对于其他部门则仍然保持禁令。
据报道,一名A职员在执行半导体设备测量数据库下载程序时出现错误,并将问题代码复制到ChatGPT以寻求帮助。另一个B职员则将用于优化产量和识别不良设备的源代码输入到系统,而C职员则将会议录音转换为文本并通过同样的方式上传,以获取会议纪要。
面对这一情况,三星向员工发出警告,并解释了一旦数据被发送到外部服务器,即使是经过处理,也存在泄露风险。公司表示正在采取措施来保护其数据安全,并且如果类似事故再次发生,将考虑切断与ChatGPT的连接。
此外,不仅企业层面,还有监管机构也开始关注这一问题。当地时间3月31日,意大利个人数据保护局宣布禁止使用聊天机器人ChatGPT,并开始调查该平台处理用户信息的情况。此前,该平台已经遭遇过用户对话记录和支付服务支付信息丢失的问题,而未能提供足够的法律依据来支持其收集和存储个人信息的事实。
这个事件凸显了使用新兴技术如生成式AI时所面临的一系列挑战,无论是在技术实现还是合规性方面。作为全球领先科技企业之一,三星必须确保其操作符合最高标准,同时保障客户隐私权益。此次事件也提醒所有参与者,在采用这种创新工具之前需要进行彻底评估,以防止潜在风险给自身带来的影响。