2024-12-02 数码 0
近年来,中国在人工智能领域取得了显著的成就,而三星电子(Samsung Electronics)则引入了ChatGPT不到20天,便面临着机密资料外泄的危机。
据韩国媒体《economist》3月30日报道,最近在三星内部发生了三起涉及ChatGPT误用与滥用的案例,其中包括两起“设备信息泄露”和一起“会议内容泄露”。这些敏感信息,如半导体设备测量资料、产品良率等,或已被存入ChatGPT学习资料库中。
这三起泄密事件都发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门。最初,由于担忧内部机密外泄,三星禁用了ChatGPT。但考虑到半导体是生成式AI建构基础的重要组成部分,自今年3月11日起允许DS部门使用ChatGPT。不过,对于装置体验(Device eXperience,简称“DX”)部门而言,使用ChatGPT仍然被禁止。
据《economist》报道,一名A职员在执行半导体设备测量资料库(DB)下载程序源代码时出现错误,将问题代码复制到ChatGPT并询问解决方法。此外,一位B职员将为了提高产量和识别不良设备编写的源代码输入到ChatGPT,并要求优化。而一位C职员将手机录制的会议内容转换为文件后输入到ChatGPT,以制作会议纪要。
媒体报道指出,这些情况已经向相关员工公开,并警告他们注意对话方式。在公司公告中解释道,在发送给聊天机器人的任何内容都会传送至外部服务器,如果让这些敏感数据进入开放式系统可能会导致严重安全风险。
对于这一系列事件,有关负责人表示:“由于这是一个内部的问题,我们很难确认具体细节。”
为了防止类似事故再次发生,比尔盖茨也发表了一篇文章,他强调说:“我们需要确保我们的技术工具不会成为威胁。”他还提出了几项建议,比如加强隐私保护法规,以及建立独立审计机构以监督科技公司。
此前,当地时间3月31日意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,并立案调查。该局认为,该平台缺乏收集用户信息以及处理支付服务支付信息丢失的情况没有进行告知。
此前OpenAI首席执行官Sam Altman公开承认开源库中的错误导致部分用户与chatgpt之间的聊天记录被泄露。当天他发布致歉推文表示已经修复错误并完成验证。
随着全球对数据安全越来越重视,加强隐私保护措施已成为当前科技行业的一大趋势。