2024-12-02 数码 0
三星电子(Samsung Electronics)在引入聊天机器人ChatGPT后,仅仅短短几周的时间内,就面临着严重的内部机密资料外泄问题。据韩国媒体《经济学人》报道,近期在三星内部发生了至少三起与ChatGPT相关的涉及敏感信息泄露事件,其中包括两起“设备性能数据泄露”和一起“高层会议记录泄露”。这些敏感信息,如半导体设备测量数据、产品质量控制标准等,都可能已经被错误地输入到了ChatGPT系统中,这些数据有可能会被存储在该平台的学习数据库中。
这三个泄密事件均发生在三星电子半导体解决方案部门(Device Solutions),该部门负责公司核心技术研发和生产过程管理。值得注意的是,在最初考虑到潜在风险,三星一度决定禁用ChatGPT。不过,由于生成式AI技术对半导体行业至关重要,尤其是作为其基础设施建设的一部分,公司最终决定允许DS部门使用ChatGPT,但仍然禁止了装置体验部门(DX)的员工使用这一工具。
根据《经济学人》的报道,一名DS部门员工出于好奇,将一段包含错误代码的问题源代码复制到ChatGPT,并询问如何修正问题。此外,还有一位同事将用于监控产量和排除不良设备的源代码提交给了这个AI,以求助于优化。而另一位员工则将手机录制的高级会议内容转换为文本文件,然后上传到ChatGPT以生成会议纪要。
为了防止类似事故再次发生,三星已经向所有员工发出警告,并通过内部公告解释,如果他们未经授权就将敏感信息输入到外部服务器,那么这种操作可能会导致关键业务秘密被窃取或滥用。这家科技巨头正在采取措施来保护其知识产权和商业秘密,同时也强调,如果即便采取了额外安全措施,也无法完全规避此类风险的话,将不得不考虑暂停与该AI服务的连接。
此前意大利个人数据保护局已对OpenAI进行调查并下令禁止使用chatgpt,因为用户私聊记录以及付款信息丢失的情况出现。在此之前,该首席执行官Sam Altman公开承认开源库中的错误导致部分用户与chatgpt交谈记录被盗走,当时他发布了一条道歉推文表示已经修复了错误并进行验证。