2024-12-02 智能 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT仅短短几周时间,便面临着严重的安全隐患。据韩国媒体《经济学人》(The Economist)报道,近日,三星内部发生了至少三个涉及ChatGPT误用与滥用的案例,这些事件包括两起设备信息泄露和一宗会议内容外泄。
这些泄密事件均发生在三星电子半导体暨装置解决方案部门内。这表明,即便是高科技公司也可能不够注意对敏感数据的保护。而最初,三星为了防止内部机密被外泄而禁用了ChatGPT,但考虑到半导体技术是生成式AI的基础构建,它们最终允许其DS部门使用该工具。不过,对于装置体验部门来说,他们仍然不得使用ChatGPT。
这次事故中的一个关键点是在执行半导体设备测量资料库下载程序时出现错误,并将问题代码复制到ChatGPT询问解决方法。此外,还有员工把用于监控产量和识别不良设备的源代码输入到了ChatGPT,以寻求优化建议;还有员工将手机录制的会议内容转换为文件后输入到系统中,要求它制作会议纪要。
针对此类事件,三星向员工发布公告,并强调在输入任何内容至ChatGPT之前需要确保该内容不会传送至外部服务器。如果这种敏感数据被学习并传播出去,将会导致严重的信息安全风险。尽管如此,有关负责人的官方声明显示他们对于这一情况表示困惑,因为这是一个内部事务,所以难以确认消息真实性。
为了预防未来再次发生类似事故,三星正在采取措施来保护其网络免受潜在威胁。若采取这些措施后仍然有类似的事故发生,该公司可能会选择断开与ChatGPT服务之间的连接。此举旨在确保员工不会无意中透露或损害公司机密信息。
此事并非没有引起国际关注。在意大利,当地时间3月31日,一份禁止使用聊天机器人平台决定已经生效,该决策基于用户个人数据丢失以及开发商OpenAI缺乏合法收集个人信息的手段。这背后还有一系列关于用户隐私权利和责任的问题浮现出来,为我们提醒了如何处理新兴技术带来的挑战。