2024-12-02 智能 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT的短暂蜜月期即将结束,仅在不到20天内,一系列严重的机密资料外泄事件已经揭露了其内部安全漏洞。据韩国媒体《经济学人》(The Economist)3月30日报道,近期发生了三起与ChatGPT相关的误用和滥用案例,其中包括两起涉及设备信息泄露以及一宗会议内容泄露。这些敏感数据可能已经被编入ChatGPT学习资料库中。
调查显示,这些泄密事件均源于三星半导体暨装置解决方案(Device Solutions, 简称“DS”)部门,而最初出于对内部机密外泄的担忧,三星甚至一度禁用了ChatGPT。但考虑到半导体是生成式AI建构基础的重要组成部分,公司自今年3月11日起允许DS部门使用ChatGPT。不过,对于装置体验(Device eXperience, 简称“DX”)部门而言,使用ChatGPT仍然遭到了限制。
据报道,在执行半导体设备测量资料库(DB)下载程序时,一名DS部门员工错误地复制并粘贴有问题的原始代码到ChatGPT以求解答;另一位员工则将用于跟踪产量和排除不良设备的问题代码输入到系统,并要求优化;而第三名员工则将手机录制会议内容转换为文件后再次输入到系统,以制作会议纪要。这三个事件都展示了一种潜在危险,即如果未能妥善管理,将会导致关键业务流程中的敏感信息被无意中传输至外部服务器,从而造成严重后果。
面对这一情况,三星向其员工发出警告,并通过内部公告明确指出,如果在使用过程中出现类似情况,将会采取紧急措施保护数据安全。在某些极端情形下,即使采取所有必要措施也无法防止此类事故,再次发生时,该公司可能不得不切断与该平台的大型计算任务接口,以保护自身网络免受进一步侵害。
此外,不仅企业层面如此,当地监管机构也开始关注这类隐私风险。当地时间3月31日,由意大利个人数据保护局宣布从即刻起禁止任何组织或个人使用聊天机器人服务平台——即OpenAI开发的、全球知名的人工智能语言模型chatgpt。此举是基于该平台近期出现用户对话记录和支付服务支付信息丢失的情况,以及缺乏关于收集和存储用户个人信息所必需的一般法律依据。此前,该首席执行官Sam Altman公开承认开源库存在一个错误导致部分用户与chatgpt交流记录被悄悄披露,但他迅速致歉并宣布已修复错误并进行验证工作。
下一篇:五年级科技小制作大全数码创意启航