2024-12-02 智能 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT仅短短几周时间,便面临着严重的安全风险。据韩国媒体《经济学人》报道,近期在三星内部共发生了三起与ChatGPT相关的安全事件,其中包括两起涉及敏感设备信息泄露和一宗会议内容外泄。这不仅暴露了公司内部对机密资料处理不当的问题,也表明了这些信息可能已经被存入了ChatGPT学习资料库中。
这三个事件都发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门,这个部门负责研发和生产高科技产品,如芯片、显示器等。最初,出于对内部信息安全的担忧,三星禁用了ChatGPT,但后来考虑到半导体技术是生成式AI(如ChatGPT)的基础,因此允许DS部门使用该工具。不过,由于仍然存在风险,装置体验(Device eXperience,简称“DX”)部门则继续禁止使用。
据报道,一名工作人员在执行半导体设备测量数据下载程序时,不小心复制出了问题代码并将其输入到了ChatGPT以寻求帮助;另一个员工则将用于优化产量和识别不良设备的源代码直接输入到系统;而第三位员工误将会议录音文件转换为文本并上传至服务,以便创建会议记录。此类操作都违反了公司关于如何合适使用这种新兴技术的规定。
为了防止类似事故再次发生,三星正在采取措施加强保护措施,并警告员工如果没有采取这些预防措施,就有可能切断与外部服务器连接。如果出现进一步的问题,那么整个网络可能会暂停对外接口。
此事也吸引了一些监管机构注意。意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,并开始调查平台收集用户数据的情况。这背后是一系列关于隐私权益和责任分配的问题,以及是否应该允许开发者自由访问用户信息以及他们所产生的大量个人数据。
随着这种类型的工具不断发展,我们正处于一个探索其潜力同时也必须确保它们不会导致更大危险领域。在未来的几个月里,我们可以期待看到更多这样的故事,它们会揭示我们如何应对这个全新的世界中的挑战。
上一篇:物联网智居系统智能家园的灵魂编织