2024-12-02 数码 0
三星电子(Samsung Electronics)在引入聊天机器人ChatGPT仅短短几周后,就暴露了严重的安全隐患。据韩国媒体《economist》报道,近期内部发生了多起涉及ChatGPT误用与滥用的事件,其中包括两起“设备信息泄露”和一起“会议内容泄露”。这些敏感数据,如半导体设备测量资料、产品良率等,都有可能被存入ChatGPT学习资料库中,从而面临外部服务器传输的风险。
这些泄密事件均发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门。最初,由于担忧内部机密外泄,三星甚至禁用了ChatGPT。不过,由于半导体是生成式AI的建构基础,公司自今年3月11日起允许DS部门使用ChatGPT,但对于装置体验(Device eXperience,简称“DX”)部门则仍然坚持禁令。
据悉,一名A职员在执行半导体设备测量资料库(DB)下载程序的源代码时出现错误,便将问题所在的原始代码复制到ChatGPT,并询问如何解决问题。此外,还有一位B职员将用于监控产量和排除不良设备的源代码输入到ChatGPT以求优化,而C职员则将手机录制会议内容转换为文件后再输入到系统,以制作会议纪要。
三星针对此类行为向员工发出警告,并通过内部公告强调,在使用ChatGPT时必须注意其操作方式。在输入任何内容至系统之前,该公司提醒所有员工相关资料都将被发送至外部服务器。如果这意味着让敏感内容流出公司,这无疑是一个巨大的安全漏洞。
尽管官方方面表示难以确认这一消息,但为了防止类似事故再次发生,三星正在采取一系列保护措施来确保不会因为未经授权地使用该聊天机器人而导致进一步的问题。这包括采取紧急信息保护措施,如果这些措施失效,则考虑切断与该平台之间的一切网络连接。
此举不仅反映出企业层面的担忧,也表明国家监管机构已经开始关注这个话题。当地时间3月31日,即意大利个人数据保护局宣布从即日起禁止使用聊天机器人ChatGPT,并立案调查一个有关用户数据丢失的情况。此前OpenAI首席执行官Sam Altman公开承认存在错误并致歉,并已修复并完成验证工作。但这只是一个初步尝试,对于那些依赖技术进步推动业务发展的人来说,这场风波提出了一个严峻的问题:我们是否真的准备好迎接这样一种全新的技术时代?