2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT仅短短几周时间,便面临着严重的安全隐患。据韩国媒体《经济学人》(The Economist)报道,近日,三星内部发生了至少三起涉及ChatGPT误用与滥用的案例,其中包括两起“设备信息泄露”和一起“会议内容泄露”。这些敏感信息,如半导体设备测量资料、产品良率等,或已被存入ChatGPT学习资料库中,这种情况极为危险,因为这意味着外部可能会访问到这些高度敏感的数据。
据悉,这些泄密事件均发生在三星电子半导体暨装置解决方案(Device Solutions, 简称“DS”)部门。这一点尤其令人担忧,因为DS部门是公司核心业务的重要组成部分,而它所处理的数据对于竞争对手来说无疑是一大宝库。
最初,由于对这种潜在风险的担忧,三星决定禁用ChatGPT。不过随后,该公司似乎重新考虑了这一决定。今年3月11日,尽管仍然存在风险,但出于技术发展需要——因为半导体正是生成式AI技术的一项关键基础——三星允许其DS部门使用ChatGPT。但是,对于装置体验(Device eXperience, 简称“DX”)部门而言,同样的安全考量导致它们继续禁用该工具。
据《经济学人》报道,一名A级员工错误地复制了一段包含问题代码片段并将其输入到ChatGPT以寻求帮助;另一个B级员工则将用于跟踪产量和识别不良设备的源代码提交给了这个平台;而C级员工甚至将手机录制会议内容转换为文档并通过此方式分享给了该系统。此类行为触发了内部监控系统,并促使公司采取行动防止进一步损失。
针对上述事件,三星向员工发出警告,并要求他们注意如何正确使用这些工具。在一份内部公告中,该公司解释道,即使是在输入数据至平台之后,这些资料也会被传送至外部服务器。如果不加管理,这些敏感信息有可能落入不法之手,从而造成严重后果。
当被问及消息真实性时,一位负责官员表示:“由于这是一个内部事务,所以很难确认。”然而,有关人员已经承诺采取措施来防止类似事件再次发生。如果即便在采取额外保护措施后,也出现相同的问题,那么公司可能不得不切断与该平台的大门,以保证网络安全。
此外,还有政府机构开始意识到了这种技术带来的隐私风险。当地时间3月31日,在意大利个人数据保护局宣布从即刻起禁止使用聊天机器人ChatGPT,并限制OpenAI开发者处理意大利用户信息以及立案调查。他们认为,在3月20日的一个错误期间,不少用户与平台进行过话费记录和付款服务支付相关操作遭遇丢失。而且,该平台未能明确告知收集或处理用户个人信息的事宜,同时缺乏法律依据支持大量收集和存储个人细节的情形。
就在前一天,即3月23日,当OpenAI首席执行官Sam Altman公开承认开源库中的错误导致部分用户与机器人的聊天记录暴露时,他发布了一条致歉推文。他表示已经修复了漏洞并完成验证工作,以确保不会再次发生此类问题。