2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT的计划,遭遇了严重的安全隐患。据韩国媒体《economist》报道,仅在不到20天内,三星内部就发生了三起涉及ChatGPT误用与滥用的案例,其中包括两起“设备信息泄露”和一起“会议内容泄露”。这些敏感信息,如半导体设备测量资料、产品良率等,都可能已经被存入了ChatGPT学习资料库中,这些数据若外泄,将对公司的商业秘密造成重大破坏。
这三个泄密事件都发生在三星电子半导体暨装置解决方案(Device Solutions, 简称“DS”)部门。最初,由于担忧内部机密外泄,三星禁用了ChatGPT,但后来考虑到半导体是生成式AI的基础,因此自今年3月11日起允许DS部门使用ChatGPT。不过,对于装置体验(Device eXperience, 简称“DX”)部门而言,为了确保数据安全,它仍然禁止使用该聊天机器人。
据报道,一名A职员在执行半导体设备测量资料库(DB)下载程序源代码时出现错误,便将问题代码复制到ChatGPT,并询问解决方法;另一个B职员则把用于监控产量和不良设备编写的源代码输入到ChatGPT要求优化;而C职员则将手机录制的会议内容转换为文件后输入到ChatGPT以制作会议纪要。这一系列操作都违反了公司关于如何正确使用chatgpt的情报指南。
面对这一情况,三星向其员工公布了上述行为,并强调必须注意chatgpt的使用方式。公司通过内部公告解释道,在用户将任何内容输入chatgpt之后,该内容都会被传送至外部服务器。如果这种敏感信息被放置在chatgpt系统中,那么即使是出于学习目的,也存在极大的风险,因为这些信息有可能会被未经授权的人士访问,从而导致重要数据外泄。
针对此类潜在威胁,韩国监管机构已经开始审查相关情况,并采取措施保护用户数据。此前意大利个人数据保护局已宣布从当地时间3月31日起禁止使用聊天机器人chatgpt,并立案调查,因为该平台曾经出现过用户对话记录和支付服务支付信息丢失的情况,而没有告知用户收集处理他们个人信息的事实,以及缺乏法律依据来收集和存储个人信息。
尽管OpenAI首席执行官Sam Altman承认并修复了一些错误并进行验证,但这次事件再次凸显了大型科技企业需要加强其网络安全措施以防止类似事故再次发生。在这个充满挑战性的数字时代,不断更新知识与技能对于保持竞争力至关重要,同时也需要不断提升我们的意识,以维护个人的隐私权益。
下一篇:科技之翼我将创新赠予国家的故事