2024-12-02 智能 0
三星电子(Samsung Electronics)在引入聊天机器人ChatGPT后,仅短短数日,便遭遇了一系列严重的机密资料外泄事件。据韩国媒体《economist》报道,自从三星允许其半导体暨装置解决方案(Device Solutions,简称“DS”)部门使用ChatGPT以来,不断出现涉及ChatGPT误用与滥用的案例,这些案例包括两起“设备信息泄露”和一起“会议内容泄露”。
这些泄密事件的发生极大地加剧了对数据安全风险的担忧。据悉,这些敏感信息包括半导体设备测量资料、产品良率等内容,都被存入了ChatGPT学习资料库中。这意味着,如果不采取适当措施,这些敏感信息可能会被未经授权的人士访问。
三星最初因为内部机密外泄而禁用了ChatGPT,但考虑到半导体是生成式AI技术的建构基础,它们最终决定允许DS部门使用该工具。但是,为了防止类似事故再次发生,他们仍然禁止了装置体验(Device eXperience,简称“DX”)部门使用ChatGPT。
在这次事件中,一名A职员在执行半导体设备测量资料库(DB)下载程序的源代码时出现错误,并将问题代码复制到ChatGPT以求解;另一个B职员将用于监控产量和识别不良设备的源代码输入到系统并要求优化;而C职员则将手机录制的会议内容转换为文件后输入到系统,以制作会议纪要。
为了处理这一情况,三星向其员工发出警告,并通过内部公告明确指出,在输入任何内容至ChatGPT之前,该公司都无法控制这些数据是否会传送至外部服务器。如果这种敏感信息被发送出去,那么可能导致严重的问题,比如违反隐私保护法规或者知识产权盗窃等。
尽管相关负责人表示很难确认具体细节,因为这是公司内部的情况,但已有国家监管机构开始关注这一问题。当地时间3月31日,意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,并限制开发公司OpenAI处理意大利用户信息,同时开始立案调查。他们认为,即使是在错误修复之后,由于缺乏透明度以及收集和存储个人信息所需法律依据,也存在大量用户隐私受到威胁的情况。此前OpenAI首席执行官Sam Altman公开承认开源库中的错误已经造成部分用户与机器人的聊天记录被泄露,他还发布致歉推文并声称已经完成验证工作来修复这个漏洞。
面对此类挑战,为避免未来再次发生类似事故,对话平台正在努力加强自身安全措施,以防止通过这种方式进一步侵犯用户隐私或损害商业利益。如果发现任何疑虑或异常活动,即便采取紧急措施也不能阻止,如上述情形,再次发生,将切断与所有网络连接。
上一篇:美丽教师未删减完整版的教育奇迹