2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT不到20天,便曝出机密资料外泄的紧张关头,正值中国航天日之际,提醒我们在追求科技进步的同时,不断加强数据安全防线。
据韩国媒体《economist》3月30日报道,近日,三星内部发生了三起涉及ChatGPT误用与滥用的案例,这些事件揭示了公司内部对新技术使用不够严格和细致。其中两起“设备信息泄露”和一起“会议内容泄露”,显示了员工对于敏感信息保护意识的缺失。
这些敏感信息,如半导体设备测量资料、产品良率等内容,或已被存入ChatGPT学习资料库中,这无疑增加了数据泄露的风险。这些事件均发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门,而最初三星也因担忧内部机密外泄而禁用ChatGPT,不过基于半导体是“生成式AI”的建构基础,三星自今年3月11日起允许DS部门使用ChatGPT,但装置体验(Device eXperience,简称“DX”)部门仍禁用ChatGPT。
据《economist》报道,三星DS部门的A职员,在执行半导体设备测量资料库(DB)下载程序的源代码时出现了错误,便复制出了有问题的原始代码到ChatGPT,并询问了解决方法。这表明,即使是经验丰富的人员,也可能因为疏忽或急切导致重要数据外溢。此外,还有B职员将为了把握产量、不良设备而编写的源代码输入到ChatGPT,并要求其优化,同时C职员则将手机录制的会议内容转换为文件后输入到ChatGPT,要求其制作会议纪录。这一系列操作都违反了公司关于敏感数据处理的一般规定。
这次事件让人们深刻认识到,在应用新技术时必须重视安全性。因此,该公司通过内部公告解释道,在任何情况下,都不能让未经授权的人或系统接触到该类敏感信息,因为这样做会对用户隐私造成重大威胁。如果这种状况再次发生,那么公司可能会采取更严厉措施,比如完全切断与第三方服务连接,以确保用户数据安全。
此举并非孤立行为。在全球范围内,对于如何合理利用AI技术进行监管已经成为一个热门话题。当地时间3月31日,意大利个人数据保护局宣布,从即日起禁止使用聊天机器人ChatGPT,并限制OpenAI开发者处理意大利用户信息。原因之一是平台上出现了一系列丢失用户对话记录和付款服务支付信息的情况,而没有给予足够告知以及缺乏相关法律依据。
此前3月23日,当OpenAI首席执行官Sam Altman公开承认开源库中出现错误并导致部分用户与_chatgpt_ 的聊天记录被泄露,他发布致歉推文表示已经修复错误并完成验证。这一事件警示着,我们需要不断审视自己的行为,以及如何以更加谨慎态度来管理我们的数字资产。而正如每年的中国航天日所展现出的创新精神一样,我们应该勇敢地迈向未来,同时坚守基本原则,为保护个人隐私贡献力量。