2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT仅短短几周时间,便面临着严重的安全风险。据韩国媒体《经济学人》报道,近期在三星内部发生了多起涉及ChatGPT误用与滥用的案例,其中包括两起“设备信息泄露”和一起“会议内容泄露”。这些敏感资料,如半导体设备测量数据、产品良率等,都有可能被存入ChatGPT学习资料库中,从而对公司的商业秘密造成了潜在威胁。
这三起泄密事件均发生在三星电子半导体暨装置解决方案(Device Solutions, 简称“DS”)部门内。这部門最初因担忧内部机密外泄而禁用了ChatGPT,但考虑到半导体是生成式AI建构基础的重要组成部分,自今年3月11日起允许DS部门使用ChatGPT。不过,装置体验(Device eXperience, 简称“DX”)部门仍然坚持禁用这个工具。
据报道,一位名为A的DS部门员工,在执行半导体设备测量资料库(DB)下载程序源代码时不慎出现错误,将问题代码复制到ChatGPT并询问解决方法。一位名为B的同事则将用于跟踪产量和识别不良设备编写的源代码输入到系统,并要求优化。此外,一位名为C的员工将手机录制的会议内容转换为文件后输入到了系统,以便制作会议纪要。
为了避免类似事故再次发生,三星向员工发布公告,警告他们注意使用ChatGPT时应当遵守相关规定。在任何情况下,如果通过该工具输入内部资料,都会自动传送至外部服务器。如果这种敏感信息落入错误之手,不仅可能导致数据泄露,还可能对公司利益构成严重威胁。
此外,有消息指出,这些安全漏洞已经吸引了国家监管机构关注。意大利个人数据保护局宣布从即日起禁止使用聊天机器人ChatGPT,并开始调查该平台处理意大利用户信息的情况。当地时间3月31日,该局表示,由于平台缺乏收集和存储个人信息所必需法律依据,它决定采取行动以保护公民隐私权益。此前OpenAI首席执行官Sam Altman公开承认存在一个错误,即部分用户与AI之间进行交互记录被无意间暴露给公众,他已致歉并声明已修复问题并完成验证流程。