2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT的计划似乎在即将启动之际遭遇了前所未有的挑战。据韩国媒体《economist》3月30日报道,近日,三星内部发生了三起涉及ChatGPT误用与滥用的案例,其中包括两起“设备信息泄露”和一起“会议内容泄露”。这些事件表明,即便是世界领先的科技公司也难以避免在新技术上出现安全漏洞。
这三起泄密事件都发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门,而最初由于对此类风险的担忧,三星禁用了ChatGPT。不过,由于半导体行业是生成式AI技术的基石,自今年3月11日起,三星允许DS部门使用ChatGPT,但装置体验(Device eXperience,简称“DX”)部门仍然禁用该工具。
据《economist》报道,一名A职员错误地复制了一段有问题的原始代码到ChatGPT,并询问如何修复;另一名B职员输入源代码并要求优化,以提高产量和减少不良设备;而C职员则将会议录音转换为文件后上传至外部服务器,以获取会议纪要。
尽管如此,这些行为可能导致敏感信息外泄,因为一旦数据被传输到外部服务器,就存在数据被非法访问或利用的风险。这一点已经被公司提醒给所有员工,并强调,如果采取额外措施仍然无法防止类似事故,再次切断与ChatGPT连接是不可避免的事态发展。
此举不仅限于公司层面,也引发了国家监管机构对于数据安全风险的关注。意大利个人数据保护局宣布,从当地时间3月31日开始禁止使用聊天机器人ChatGPT,并对其开发商OpenAI进行立案调查。此前,该平台因用户对话数据和付款服务支付信息丢失而受到批评,而没有履行告知收集处理用户信息的情节,以及缺乏法律依据来收集和存储个人信息。
此事还促使OpenAI首席执行官Sam Altman公开承认错误,并致歉。在这场关于隐私权、安全性以及新技术应用之间紧张关系的大戏中,每一步都充满着未知和潜在危险。