2024-12-02 数码 0
三星电子(Samsung Electronics)引入聊天机器人ChatGPT的计划似乎在即将启动之际遭遇了一个严峻的挑战。据韩国媒体《economist》报道,仅在其推出不到20天后,关于涉及ChatGPT误用与滥用的消息就已经开始浮出水面。这一系列事件包括两起“设备信息泄露”和一起“会议内容泄露”,这些敏感资料或已被存入ChatGPT学习资料库中。
这三个泄密事件均发生在三星电子半导体暨装置解决方案(Device Solutions,简称“DS”)部门。最初,三星因担忧内部机密外泄而禁用了ChatGPT。不过,由于半导体是“生成式AI”的建构基础,三星自今年3月11日起允许DS部门使用ChatGPT,但装置体验(Device eXperience,简称“DX”)部门仍然禁止使用。
据《economist》报道,一名A职员在执行半导体设备测量资料库(DB)下载程序的源代码时出现了错误,便复制出了有问题的原始代码到ChatGPT,并询问了解决方法。另一个B职员把为了掌握产量、不良设备而编写的源代码输入到ChatGPT,并要求其优化。此外,还有一位C职员将手机录制的会议内容转换为文件后输入到ChatGPT,并要求它制作会议纪录。
根据媒体报道,这些涉及未经授权地向外部服务器传送敏感数据的事故引发了对公司内部安全措施的一致关注。该公司通过内部公告提醒员工注意如何正确使用聊天机器人,并解释了一旦数据被上传至外部服务器,即使是意图保密,也可能导致严重后果。
对于这一连串事件,有责任者表示,“因为这是公司内部的问题,所以很难确认”。尽管如此,为避免类似事故再次发生,三星正在采取紧急行动来保护其网络系统并防止进一步信息泄露。如果实施这些保护措施仍无法防止类似事故发生,那么公司可能不得不切断与聊天机器人的连接。
此事还引起了国际监管机构的关注。当地时间3月31日,意大利个人数据保护局宣布,从当日起禁止使用聊天机器人ChatGPT,因为该平台曾出现用户对话数据和付款服务支付信息丢失的情况,而没有明确告知用户收集他们个人信息,也缺乏足够法律依据进行此类操作。此前OpenAI首席执行官Sam Altman公开承认开源库中存在错误导致部分用户与chatgpt之间的一些对话记录被泄露。他发布了一条道歉推文表示已经修复错误并完成验证工作。但即便如此,这一系列事件也展示了大型科技企业需要更加谨慎地处理敏感数据,以确保不会给消费者带来风险或损害其信任。