2024-12-02 数码 0
三星电子(Samsung Electronics)在引入聊天机器人ChatGPT仅短短几周时间后,便遭遇了严重的机密资料外泄事件。
据韩国媒体《经济日报》报道,近期,三星内部共发生了四起涉及ChatGPT误用与滥用案例,其中包括两起“设备性能数据泄露”和两起“会议内容泄露”。这些敏感信息,如半导体设备测量结果、产品质量评估报告等,都被疑似未经授权地输入到了ChatGPT的学习数据库中。
这四起泄密事件均发生在三星电子半导体暨装置解决方案(Device Solutions, 简称“DS”)部门。最初,由于对内部机密安全性的担忧,三星决定禁用ChatGPT。但鉴于半导体技术是生成式AI研究的基础领域,公司随后允许DS部门继续使用该平台,但保持对装置体验(Device eXperience, 简称“DX”)部门的限制,不得使用ChatGPT。
据《经济日报》披露,一名位于DS部门A职员,在执行一项半导体设备性能测试代码下载任务时不慎复制出了部分源代码,并将其上传至ChatGPT以求解bug问题。此外,还有另一名B职员将用于生产效率优化的源代码直接输入到ChatGPT请求优化建议。而C职员则错误地将手机录制会议内容转换为文本文件并上传至平台,以获取自动整理会议记录服务。
为了应对这一情况,三星向涉事员工发出警告,并通过内部公告强调了正确使用ChatGPT的重要性。公司指出,即使是经过处理后的敏感数据也可能会传输到外部服务器,从而存在潜在安全风险。如果这种情况持续发生,对内网资源进行保护措施,将不得不考虑断开与该平台的大门连接。
此次事件不仅让行业伙伴感到紧张,也吸引了政府监管机构关注。当地时间3月31日,加上意大利个人数据保护局宣布立即禁止所有企业使用聊天机器人系统,因为其开发商OpenAI缺乏合规处理用户隐私信息的问题。此前,该平台已因用户交流记录和支付服务支付信息丢失而面临调查。OpenAI首席执行官Sam Altman公开承认,他们发现了一些错误导致部分用户与系统交互记录暴露给公众,并表示已经采取措施修复问题并进行验证。
此番危机,为全球各大科技巨头敲响警钟:即便是最先进的人工智能技术,如果没有适当管理和严格遵守法律法规,其潜在威胁同样巨大。在这个数字时代,每一次网络操作都可能带来不可预知的后果,而对于任何组织来说,无论规模大小,都必须确保数据安全成为首要任务之一。