2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT仅短短几周时间,便面临着严重的隐私泄露问题。据韩国媒体《economist》报道,近日,三星内部发生了至少三起涉及ChatGPT误用与滥用的案例,其中包括两起“设备信息泄露”和一宗“会议内容外泄”。这些敏感资料,如半导体设备测量数据、产品良率等,或已经被存入了ChatGPT的学习资料库中,这可能导致公司内部机密被外界获取。
这三起事件均发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门内。这一部门负责开发用于生产高科技产品的关键技术。最初,由于担忧内部机密被外泄,三星禁用了ChatGPT。但随后考虑到半导体制造过程依赖于AI技术,该公司允许DS部门使用ChatGPT进行工作。此举旨在保持竞争力,同时确保安全性。
然而,一名A职员在执行一个下载程序时出错,将包含有问题原始代码复制到ChatGPT并询问解决方案。一位B职员则将源代码输入至该系统以优化产量和识别不良设备。而另一位C职员将手机录制的会议内容转换为文档形式,并要求系统制作会议纪要。这些操作都违反了公司对敏感数据处理的规定。
为了防止类似事件再次发生,三星向其员工发出警告,并通过内部公告解释了一旦信息进入该平台,它们将会传送到外部服务器。如果不加控制,这些敏感内容有可能流出给未经授权的人士。在采取紧急措施后,如果仍然发现类似情况,再次出现的情况下,该公司可能会暂停所有与该平台相关联的网络连接,以保护自身网络安全。
此事还吸引了国家监管机构关注。当地时间3月31日,意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,并立案调查,因为用户对话记录和付款服务支付信息丢失。个人数据保护局认为,该平台缺乏告知收集处理用户信息,以及法律依据来支持大量收集和存储个人信息的事项。此前OpenAI首席执行官Sam Altman公开承认错误并致歉,并表示已修复错误并完成验证过程。
这样的事件提醒我们,即使是最先进技术也需要适当管理以防止潜在风险,而企业必须不断提高意识,以确保其业务活动不会导致重要秘密或客户数据遭受损害。