2024-12-02 智能 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT仅短短几周时间,便面临着严重的安全风险。据韩国媒体《经济日报》报道,近期在三星内部共发生了三起与ChatGPT相关的安全事件,其中包括两起涉及敏感设备信息泄露和一宗会议内容外泄。这不仅让公司内部的人员感到震惊,也引发了对数据安全的普遍关注。
这些事件中,有一次,一名员工在执行半导体设备测量资料库(DB)的下载程序时,由于操作错误,将包含机密信息的源代码复制到ChatGPT,并询问如何解决问题。此外,还有员工将用于监控产量和排除故障的问题代码输入到了ChatGPT,以寻求优化建议。而另一个案例则是,一个员工录制会议并将其转换为文件后,再将内容输入到ChatGPT以生成会议记录。
为了确保这种情况不会再次发生,三星已经向所有员工发出警告,并要求他们注意使用ChatGPT。在一份内部公告中,该公司解释道,如果用户在使用过程中输入任何敏感或涉密信息,那么这些数据都会被传输到外部服务器,这可能会导致重要信息泄露给未经授权的人。
虽然目前尚不清楚是否真的存在这样的漏洞,但为了防止潜在风险,三星正在采取措施来保护其系统免受未授权访问。该公司表示,如果即使采取了额外措施,也仍然出现类似事件,它可能不得不暂停与ChatGPT的连接,以保护其网络安全。
此前,不同国家也开始关注这一问题。当地时间3月31日,意大利个人数据保护局宣布禁止使用聊天机器人ChatGPT,因为它没有遵守适当的手续收集和处理用户数据。此前,该平台遭遇过用户对话记录和支付服务付款信息丢失的情况,而开发者OpenAI没有提供足够的法律依据来支持其收集和存储个人信息。