2024-12-02 数码 0
三星电子(Samsung Electronics)在引入聊天机器人ChatGPT后,仅短短数日,便爆出严重的涉密资料外泄事件。
据韩国媒体《经济观察报》报道,近期内,三星内部共发生了四起与ChatGPT相关的安全事故,其中包括两起涉及设备信息泄露和两起会议内容被非法获取。这些敏感信息,如半导体设备测量数据、产品质量评估报告等,都可能已经被输入到ChatGPT系统中,从而对公司的商业秘密造成了重大威胁。
这四起事件均发生在三星电子半导体解决方案部门(Device Solutions, 简称“DS”),该部门负责研发和生产用于手机、电脑等电子产品的芯片。最初,由于担忧内部信息安全问题,三星决定暂时禁用ChatGPT。但随后,他们意识到利用生成式AI技术对于改善半导体制造流程至关重要,因此允许DS部门继续使用ChatGPT。不过,对于其他部门如装置体验(Device eXperience, 简称“DX”)则仍然实施禁令。
据《经济观察报》披露,一名DS部门员工错误地将一份包含源代码的文件复制并上传到ChatGPT以寻求帮助;另一位员工将其编写的一段有关产量跟踪和不良设备识别的代码上传给机器人,以便优化程序性能。此外,还有一个员工将手机录制的声音转换为文本并上传到平台,以便创建会议记录。
针对此类安全漏洞,三星向全体员工发出警告,并通过内部公告强调了使用聊天机器人的注意事项。公司指出,即使是经过处理后的敏感数据,也不能无限制地传输给外部服务器,因为这样做可能会导致重要信息泄露。
为了防止未来再次出现类似的问题,三星正在紧急采取措施保护其网络免受未经授权访问。如果即使采取了所有必要措施之后也发现存在隐患,那么公司可能不得不切断与ChatGPT平台的大部分或全部连接。
此外,这些问题也吸引了监管机构的关注。在意大利,当地时间3月31日,一家政府机构宣布禁止使用聊天机器人ChatGPT,并开始调查该平台收集用户数据的情况。这背后的原因是,该平台曾出现过用户对话记录和支付服务支付信息丢失的情况,而没有明确告知用户如何处理这些个人数据,也缺乏合适法律依据来支持这一行为。
值得注意的是,在3月23日OpenAI首席执行官Sam Altman公开承认了一次错误,该错误导致一些用户与ChatGPT之间的私人对话内容被盗用。他发布了一条道歉推特声明表示已经修复了这个漏洞,并进行了解决验证工作。