2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT仅短短几周时间,便面临着严重的安全风险。据韩国媒体《economist》报道,近日在三星内部共发生了三起涉及ChatGPT误用与滥用的案例,其中包括两起“设备信息泄露”和一起“会议内容泄露”。这些敏感资料,如半导体设备测量资料、产品良率等,或已被不慎输入到ChatGPT学习资料库中。
这三起泄密事件均发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门。最初,基于对内部机密外泄的担忧,三星禁用了ChatGPT。但鉴于半导体是生成式AI(Generative AI)的建构基础,公司自今年3月11日起允许DS部门使用ChatGPT,但装置体验(Device eXperience,简称“DX”)部门仍然禁止使用该技术。
据报道,一名A职员在执行半导体设备测量资料库下载程序时出现错误,将源代码复制到ChatGPT并询问解决方法;另一个B职员将用于优化产量和排除故障的源代码输入到系统,并要求其优化;而C职员则将手机录制的会议内容转换为文件后再次上传至外部服务器,这些操作都可能导致重要信息被传送出去。
为了防止类似事故再次发生,三星正在采取一系列措施来保护其数据安全。这包括向员工发出警告,即使采取额外的信息保护措施,如果仍有类似情况出现,则公司可能会暂停与聊天机器人的连接。此举表明公司对于这种潜在威胁非常重视,并准备采取一切必要措施以确保客户数据和内部信息不受损害。
此事也吸引了监管机构注意,不仅如此,有国家监管机构已经开始调查相关行为。当地时间3月31日意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,因为该平台没有合适的手段收集处理用户个人信息,而且存在大量收集和存储个人数据缺乏法律依据的问题。此前OpenAI首席执行官Sam Altman公开承认开源库中出现错误导致部分用户与ChatGPT的聊天记录被泄露,并表示已经修复了错误并完成验证。
总之,这个事件提醒我们,对于任何新兴技术,无论多么先进或有益,都必须小心谨慎地使用,以避免未来的潜在风险。