2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT的短暂蜜月期,似乎随即以严重的涉密内容外泄事件而告终。据韩国媒体《economist》3月30日报道,仅在不到20天内,一系列与ChatGPT相关的误用与滥用案例已经被曝光,其中包括两起“设备信息泄露”和一起“会议内容泄露”。这些敏感数据不仅可能已被存入了ChatGPT学习资料库中,而且还可能对公司的竞争优势造成了潜在威胁。
这三起泄密事件均发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门,这个部门是半导体行业中的精英团队,他们处理的是极其复杂和敏感的技术数据。最初,由于内部安全隐患担忧,三星禁用了ChatGPT,但后来考虑到半导体行业是生成式AI技术发展的一个重要基础,因此允许DS部门使用该工具。不过,对于装置体验(Device eXperience,简称“DX”)部门而言,该禁令仍然有效。
据悉,在执行半导体设备测量资料库(DB)下载程序时,一名A职员犯下错误,将有问题的原始代码直接输入到ChatGPT,并询问如何解决问题。此外,还有一位B职员将为了提高产量、减少不良设备编写的一段源代码输入到了机器人,并要求它进行优化。此外,还有一个C职员将手机录制的会议内容转换为文件并上传到平台,以便让机器人制作会议纪要。
面对这一情况,三星不得不向所有涉事员工发出警告,并通过内部公告提醒他们注意使用这种新兴工具带来的风险。在公布这些信息之后,该公司解释道,即使是出于合理目的使用ChatGPT,如果没有恰当地设置保护措施,那么有关公司内部资料的大量传输都可能会导致安全漏洞,从而给敌手提供价值宝贵的情报。
对于此类事件,不仅企业本身需要采取行动,更有国家监管机构开始关注这个问题。当地时间3月31日,意大利个人数据保护局宣布从即日起禁止使用聊天机器人ChatGPT,并立案调查,因为该平台未能妥善处理用户信息并未得到充分授权。这一决定表明,无论是在全球还是在各个国家,都存在着严格管理和监督这一新兴技术以保障用户隐私权利的问题。
此前OpenAI首席执行官Sam Altman公开承认开源库中出现错误,使得部分用户与chatgpt交流记录遭受泄露。他迅速发布致歉声明表示已经修复错误并完成验证。但这样的事件也暴露出一种现象,即科技进步往往伴随着新的挑战,而我们是否能够有效应对这些挑战尚需观察。