2024-12-02 智能 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT仅短短几周时间,便面临着严重的安全风险。据韩国媒体《economist》报道,近期在三星内部共发生了三起与ChatGPT相关的安全事件,其中包括两起涉及设备信息泄露和一宗会议内容外泄。
这次泄密事件中,一名员工在执行半导体设备测量资料库(DB)下载程序时出错,将问题代码复制到ChatGPT,并询问解决方案;另一个员工将为了提高产量和减少不良设备而编写的源代码输入到ChatGPT要求优化;而第三位员工则将手机录制的会议内容转换为文件后输入到ChatGPT,要求制作会议记录。
这些操作都违反了公司关于使用外部服务的规定,因为所有输入数据都会被传送至外部服务器。如果这些敏感信息被学习并存储于机器人的系统中,那么它们可能会被未经授权的人访问,从而导致重大安全漏洞。
为了防止类似事故再次发生,三星正在采取紧急措施来保护其网络免受潜在威胁。公司已经向员工发出警告,如果即使采取了这些措施,也有类似的事件发生,它们可能不得不切断与该平台的连接。
此事也引发了国家监管机构对于数据安全风险的关注。在意大利个人数据保护局宣布禁止使用聊天机器人ChatGPT之后,该局开始调查该平台处理意大利用户信息的情况。根据他们所说,平台缺乏必要的手续来收集和存储个人信息,这些行为构成了违法行为。
OpenAI首席执行官Sam Altman公开承认错误,并表示已修复并验证问题。他对此表示歉意,并强调他们正在采取行动以确保未来不会再出现这样的情况。这一系列事件提醒我们,在我们利用新技术时,我们必须始终保持警惕,以确保我们的隐私得到保障。