2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT仅短短几周时间,便面临着严重的安全隐患。据韩国媒体《经济学人》(The Economist)报道,近日,三星内部发生了至少三起涉及ChatGPT误用与滥用的案例,其中包括两起“设备信息泄露”和一起“会议内容泄露”。这些敏感信息,如半导体设备测量资料、产品良率等,或已被存入ChatGPT学习资料库中,这无疑对公司的商业秘密造成了严重威胁。
这三起泄密事件均发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门。最初,由于担忧内部机密外泄,三星禁用了ChatGPT。但考虑到半导体是生成式AI的建构基础,以及其重要性在当前技术发展中所扮演的角色,三星自今年3月11日起允许DS部门使用ChatGPT,但装置体验(Device eXperience,简称“DX”)部门仍然禁止使用。
据《经济学人》报道,一名A职员在执行半导体设备测量资料库(DB)的下载程序时出现错误,将问题代码复制到ChatGPT并询问解决方法;B职员将为了提升产量和排除不良设备而编写的源代码输入到ChatGPT以求优化;C职员则将手机录制的会议内容转换为文件后输入到ChatGPT,以制作会议纪要。
对于这些事件,三星向员工发出警告,并要求他们注意如何使用这个工具。在内部公告中,该公司解释道,在将任何内容发送给外部服务器之前,都会进行必要的处理。如果这种数据传输不当,那么可能会导致敏感信息被外部访问或盗取。
尽管相关负责人表示由于这些情况属于公司内部事务,所以很难确认消息真实性,但已经有国家监管机构开始关注这一问题。当地时间3月31日,即意大利个人数据保护局宣布从即日起禁止使用聊天机器人ChatGPT,并限制开发者OpenAI处理意大利用户信息,并开始立案调查。这是因为该平台曾经出现过用户对话数据和付款服务支付信息丢失的情况,而没有明确告知收集处理用户信息,也缺乏法律依据来支持大量收集和存储个人信息。
此前OpenAI首席执行官Sam Altman公开承认开源库中的一个错误导致部分用户与机器人的聊天记录被泄露,他发布了一条致歉推文表示已经修复了错误并完成验证。此次事件提醒我们,对于利用新兴技术如生成式AI必须谨慎行事,不仅需要技术上的保障,还需加强管理层面的监督与教育,以确保企业数据安全。