2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT仅短短几周时间,便面临着严重的安全风险。据韩国媒体《economist》报道,近日在三星内部发生了多起涉及ChatGPT误用与滥用的案例,这些事件直接威胁到了公司的核心利益和客户隐私安全。
这次泄密事件中,涉及到的是关于半导体设备测量资料、产品良率等敏感信息。这些建议性的数据被错误地输入到了ChatGPT系统中,并且这些敏感信息或已被存入了学习资料库中,这对于任何一家科技巨头来说都是一个巨大的安全漏洞。
此外,据悉,这些泄密事件均发生在三星电子半导体暨装置解决方案部门。而最初,由于担忧内部机密外泄,三星禁用了ChatGPT。不过,由于半导体是“生成式AI”的建构基础,三星自今年3月11日起允许DS部门使用ChatGPT,但装置体验部门仍然禁止使用。
当员工将原始代码复制到ChatGPT并询问解决方法时,或是在优化源代码时,将有问题的原始代码输入到系统中,都可能导致关键数据被传送到外部服务器。即便是会议内容,也可能会通过非正式渠道被记录下来并输入至系统,从而对公司造成重大损失。
为了防止类似事故再次发生,三星正在采取紧急措施来保护其内部网络,并向员工发出警告:如果采取这些措施后仍然出现类似情况,则公司可能会不得不切断与ChatGPT的连接。此举不仅反映出技术企业对于数据安全的高度重视,也显示出他们愿意采取一切必要措施来确保用户和商业秘密不会受到威胁。
此外,不仅公司层面,对于这个问题也有国家监管机构关注。当地时间3月31日,一项针对OpenAI开发的人脸识别应用程序所收集用户数据未经授权分享给第三方的事故引发了一系列调查。个人数据保护局认为,该平台缺乏法律依据收集和处理个人信息,因此宣布从即日起禁止使用聊天机器人ChatGPT,并开始立案调查。
这次事件强调了技术发展带来的新挑战以及需要加强监管以保护公民权利的问题。在未来,我们期待看到更多关于如何平衡创新与隐私保护之间关系的讨论,以及如何有效利用如同chatgpt这样的工具,同时又避免潜在风险。