2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT仅短短几周时间,便面临着严重的安全风险。据韩国媒体《经济学人》报道,近期在三星内部共发生了三起与ChatGPT相关的安全事件,其中包括两起涉及设备信息泄露和一宗会议内容外泄。
这次泄密事件涉及到了半导体设备测量数据、产品良率等敏感信息,这些数据都被错误地输入到了ChatGPT中。这些数据不仅可能被用于商业目的,还可能落入不法分子的手中,造成更大的损害。
值得注意的是,这些事件均发生在三星电子的半导体暨装置解决方案部门内,而该部门是允许使用ChatGPT的。这表明,即便是在公司内部,也存在对AI工具使用不当的情况,以及对个人隐私保护措施不足的问题。
为了防止类似的事故再次发生,三星正在采取紧急措施来保护其网络系统。公司已经向员工发出警告,如果未来再有类似的安全问题出现,将会切断与ChatGPT的连接。
此外,不仅公司层面,对于这个问题也开始引起国家监管机构的关注。在意大利,个人数据保护局已经宣布禁止使用ChatGPT,并启动了一项调查,以了解该平台如何处理用户信息,并确保其遵守法律规定。
这些事件提醒我们,无论是大型科技公司还是普通用户,都需要更加谨慎地使用AI工具,并采取必要措施来保护自己的隐私和安全。此外,更好的沟通和培训对于确保员工理解他们如何正确地使用这些工具至关重要。