2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT的日子还未过去二十天,便爆出严重的涉密资料外泄事件。
据韩国媒体《经济观察报》报道,近期内,三星内部共发生了三起与ChatGPT相关的误用和滥用案例,其中包括两起“设备信息泄露”以及一宗“会议内容泄露”。这些敏感信息可能已经被嵌入到ChatGPT学习数据库中。
值得注意的是,这些泄密事件均源于三星电子半导体暨装置解决方案部门(Device Solutions, 简称“DS”)。最初,考虑到内部机密可能会被外洩,三星甚至暂时禁用了ChatGPT。不过,由于半导体技术是生成式AI发展的基石基础,公司最终在3月11日决定允许DS部门使用该平台,但对于装置体验部门(Device eXperience, 简称“DX”),ChatGPT仍然受到禁令。
报道指出,在执行半导体设备测量数据库下载程序源代码时,一名A级职员不慎复制出了问题所在,并将其输入到了ChatGPT询问解决方案。同样地,一位B级职员将为了提高产量而编写的原始代码直接输入给了这款聊天机器人,并要求优化。此外,还有一位C级职员把手机录制的会议内容转换为文件后,也将其上传至该平台,以获取会议纪要。
针对此类事件,三星向员工发出警告,并通过内部公告强调了正确使用ChatGPT的重要性。在使用过程中,如果任何敏感内容被发送到外部服务器,那么潜在风险即刻显现出来,即可能导致关键信息流失。
当记者追问有关这一情况是否属实时,该公司方面表示由于涉及内部事务,他们无法提供确切回应。尽管如此,这样的安全漏洞已引发高度关注,有鉴于此,不仅公司层面需要采取措施来防止类似事故再次发生,而且国家监管机构也开始介入调查。
意大利个人数据保护局因此宣布,从即日起禁止使用聊天机器人系统——具体来说,就是限制开发商OpenAI处理意大利用户数据并立案调查。理由是在3月20日某个时间点上,该平台出现了一段用户对话和支付服务支付信息丢失的情况,而没有明确告知收集和处理这些个人信息的事宜,同时缺乏足够法律依据来支持大量收集存储个人资料行为。
就在此前,当OpenAI首席执行官Sam Altman公开承认错误导致部分用户与其互动记录遭受暴露后,他发布了一份致歉声明并保证问题已经得到修复并进行验证。这一系列事件凸显了数字时代如何有效管理隐私成为一个迫切且挑战性的议题。