2024-12-02 数码 0
三星电子(Samsung Electronics)在引入聊天机器人ChatGPT后,仅短短数日,便爆出严重的涉密资料外泄事件。
据韩国媒体《经济观察报》报道,近期内,三星内部共发生了四起与ChatGPT相关的安全事故,其中包括两起涉及设备信息泄露以及两起会议内容被非法获取。这些敏感信息,如半导体设备测量数据、产品质量评估报告等,或已被无意中输入到ChatGPT系统中,这对公司的商业秘密造成了严重威胁。
调查发现,这些安全漏洞主要集中在三星电子半导体暨解决方案部门(Device Solutions),该部门负责研发和生产用于手机、电脑等电子产品的芯片。尽管最初考虑禁用ChatGPT,但鉴于其对于半导体行业至关重要性,以及作为“生成式AI”基础设施的一部分,公司最终决定允许该部门有限度地使用ChatGPT。
然而,即便是受限的情况下,一些员工仍然不慎将内部文件和会议记录传输给外部服务器,从而导致了敏感信息可能流向未知渠道。此类错误行为包括一个工程师将源代码上传到聊天机器人以寻求帮助;另一个员工则是为了提高产量而输入了生产线优化建议,并且有第三名员工把会议录音转换成文本并分享给外部用户。
针对此类问题,三星已经通过内部通告提醒所有员工必须小心使用这款技术,以避免进一步泄露企业机密。公司指出,即使是经过过滤后的数据,也一旦发送到外部服务器,就存在潜在风险,因为这样做可能会让竞争对手或恶意分子获得宝贵的情报。
为了确保这一切不会再次发生,三星正在采取一系列措施来加强其数据保护政策。这包括制定新的指导原则,以及实施更严格的审查程序,以防止未经授权的人士访问敏感信息。如果违反这些规定,并且即使是在紧急情况下也没有遵守保护措施,那么公司网络可能会暂时断开与ChatGPT服务的连接。
此事并非仅限于私营企业领域的问题。当地时间3月31日,一家意大利监管机构——个人数据保护局宣布,从当天开始禁止使用聊天机器人ChatGPT,并启动了一项调查。在他们看来,该平台曾经出现了一系列令人担忧的问题,比如丢失用户对话和支付记录,而没有合适的手段告知用户,他们收集到的个人数据如何处理。
之前,在3月23日,当OpenAI首席执行官Sam Altman意识到存在一个致命错误,他公开承认了这一点。他表示,由于某个开源库中的错误,一些用户与AI之间进行的私人交流遭到了泄露。他随后发布了一条道歉推文,并声称已经修复这个缺陷并完成必要的验证工作。