2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT的日子还未过去二十天,便爆出了一系列涉及机密资料外泄的事件。据韩国媒体《economist》3月30日报道,近期内,三星内部共发生了四起与ChatGPT相关的安全问题,其中包括两起“设备信息泄露”和两起“会议内容泄露”。这些敏感信息,如半导体设备测量数据、产品良率以及高层会议记录,都可能已经被无意中输入到了ChatGPT的学习资料库中。
这四起事件均发生在三星电子半导体暨装置解决方案部门,而最初由于对内部机密安全性的担忧,三星甚至一度考虑全面禁用ChatGPT。不过,由于半导体技术是生成式AI发展所需基础设施的一部分,三星最终决定允许DS部门使用ChatGPT,但对于装置体验部门,则仍然坚持禁令。
据《economist》透露,一名A职员在执行半导体设备测量数据库下载程序时不慎复制出了有问题的原始代码,并将其上传到ChatGPT以寻求解决方案。此外,一位B职员也曾将用于优化产量和识别故障设备的源代码提交给了AI助手。而C职员则错误地将手机录制的会议内容转换为文档形式后,将其发送至外部服务器,以便让AI系统制作会议纪要。
为了防止类似事故再次发生,三星向所有员工发出警告,并要求他们注意如何使用这款强大的工具。在一个内部公告中,该公司明确指出,即使是通过合法途径获取到的用户数据,也必须小心处理,因为任何一条不当传输都可能导致重要信息流失出去。同时,他们还承诺,如果即使采取了严格措施后仍然出现类似的问题,将会暂停所有与该平台相关联的大型企业网络访问权限。
此举并非仅限于公司层面的反应,不久前意大利个人数据保护局就已经开始调查OpenAI开发的一个新工具,这个工具因缺乏合适的手段来处理用户隐私而受到质疑。当局表示自从3月20日以来,就已发现大量用户对话记录和支付服务交易历史丢失的情况,而OpenAI方面似乎没有履行告知收集个人信息以及法律依据存储这些数据等责任。
面对这一连串挑战,尽管首席执行官Sam Altman公开承认错误并迅速采取行动修复漏洞并进行验证,但这背后的隐私保护危机依旧是一个需要深刻反思的问题。随着更多关于科技创新素材200字摘抄的情报涌现,我们不得不重新审视我们的行为,以及我们如何利用技术来维护自身和他人的隐私安全。