2024-12-02 智能 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT仅短短几周时间,便面临着严重的安全风险。据韩国媒体《economist》报道,近日在三星内部共发生了三起涉及ChatGPT误用与滥用的案例,其中包括两起“设备信息泄露”和一起“会议内容泄露”。这些敏感信息,如半导体设备测量资料、产品良率等,都有可能被存入ChatGPT学习资料库中。
这三起泄密事件均发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门。这一部门负责研发高性能芯片,是公司核心竞争力所在。最初,由于对内部机密外泄的担忧,三星禁用了ChatGPT。但考虑到半导体行业是生成式AI技术的重要应用基础,公司最终允许DS部门使用ChatGPT,但对于装置体验(Device eXperience,简称“DX”)部门则继续保持禁令。
据报道,一名A职员在执行半导体设备测量资料库(DB)下载程序的源代码时,不小心复制出了问题代码,并将其输入到ChatGPT以寻求解决方法。一位B职员则将为了提高产量、排除不良设备而编写的源代码直接输入到ChatGPT进行优化。此外,一位C职员甚至将手机录制的会议内容转换为文件后再上传至该平台,以便制作会议纪要。
为了防止类似事故再次发生,三星向全体员工发出警告,并通过内部公告强调了正确使用ChatGPT的重要性。在使用该平台之前,每个人都必须确保相关数据不会被传送到外部服务器。如果发现任何违规行为,将立即采取紧急措施并可能切断与该平台所有连接。
此外,这一事件还引发了一些国家监管机构对数据安全风险的问题关注。当地时间3月31日,意大利个人数据保护局宣布从即日起禁止使用聊天机器人ChatGPT,并开始调查开发公司OpenAI处理意大利用户信息的情况。根据调查结果显示,该平台存在收集和存储用户个人信息缺乏法律依据的问题,而3月20日曾出现过用户对话数据和付款服务支付信息丢失的情况。不过,在此之后OpenAI已修复错误并完成验证工作,以缓解这一危机。