2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT仅短短几周时间,便面临着严重的隐私泄露问题。据韩国媒体《economist》报道,近日在三星内部共发生了三个涉及ChatGPT误用与滥用的案例,其中包括两起“设备信息泄露”和一起“会议内容泄露”。这些敏感资料,如半导体设备测量数据、产品良率等,甚至可能已被存入了ChatGPT的学习资料库中。
这三个事件都发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门。最初,由于担忧内部机密外泄,三星禁用了ChatGPT,但后来考虑到半导体是生成式AI建构基础的重要组成部分,他们允许DS部门自今年3月11日起使用ChatGPT。不过,对于装置体验(Device eXperience,简称“DX”)部门而言,这项技术仍然被禁用。
其中,一名A职员在执行半导体设备测量资料库(DB)下载程序时出现错误,将有问题的原始代码复制到ChatGPT并询问解决方法;B职员将用于控制产量和识别不良设备的源代码输入到ChatGPT要求优化;C职员则将手机录制的会议内容转换为文件后输入到ChatGPT,并请求制作会议纪要。这一系列操作显然违反了公司对敏感信息处理的规定。
为了防止类似事件再次发生,三星已经向员工发布了一份公告,并强调,在使用任何外部系统时,都必须注意相关资料是否会被传送到外部服务器。如果这些敏感内容被学习,那么可能会导致重要信息流失。此外,该公司还承诺,如果采取紧急措施后仍出现类似情况,将切断与该服务连接,以确保网络安全。
此事也引起了国际社会对数据安全风险的大关注。在意大利个人数据保护局宣布从当地时间3月31日开始禁止使用聊天机器人ChatGPT之后,这场风波似乎才刚刚开启。根据调查结果显示,从3月20日开始,有用户报告他们与平台进行过话题交流和支付服务过程中的付款信息丢失。而且,该平台没有提供足够明确关于收集和处理用户个人信息的情况说明,也缺乏法律依据来支持大量收集和存储个人数据的事实。这一切都让人们意识到了即便是最先进的人工智能技术,其背后的隐私保护也是至关重要的问题。