2025-02-28 科技 0
随着人工智能大模型的广泛应用,其安全性问题也日益凸显,成为黑客攻击的新目标。近期,DeepSeek便遭遇了大规模的网络攻击,攻击者通过多种手段,诸如僵尸网络和UDP洪水攻击,向服务器发送海量数据包,导致网络带宽和系统资源严重过载。
这类资源消耗型攻击,其核心理念在于无需直接窃取数据或破坏模型结构,而是通过大量占用目标系统的计算资源、训练数据等,达到系统瘫痪、性能下降乃至模型失效的目的。此类攻击隐蔽性强、破坏力巨大,对AI大模型构成了重大威胁,严重阻碍了AI技术的健康发展。
据分析,当前针对AI大模型的资源消耗型攻击主要包括四类:API接口调用攻击、恶意注册攻击、大模型供应链投毒攻击以及大模型循环占用算力资源攻击。这些攻击手段各异,但均对AI大模型的安全构成了严峻挑战。
在API接口调用攻击中,攻击者通过高频请求、复杂查询以及滥用异步调用等手段,大量消耗服务器的算力资源。例如,攻击者可以自动化地向AI绘画平台的图片生成接口发送数千次请求每秒,导致平台资源被大量占用,正常用户请求无法得到及时处理。
恶意注册攻击则是通过虚假账号占用免费额度或试用资源。攻击者利用自动化注册工具批量创建账号,并使用这些账号大量生成图像或发起推理请求,导致平台资源被过度消耗,增加了运营成本,降低了服务质量。
大模型供应链投毒攻击则更为隐蔽且长期。攻击者通过在训练数据中插入误导性样本、篡改模型依赖的第三方库或植入后门等手段,污染模型的学习过程,使其在特定情况下做出错误预测或决策。这种攻击方式不仅影响模型的性能,还可能引发数据泄露等安全问题。
大模型循环占用算力资源攻击则针对容器化架构的弹性扩缩容弱点。攻击者通过构造恶意输入,如无限递归提示词或超大上下文请求,使AI不断重复处理相同任务或消耗大量显存资源。攻击者还可以利用Kubernetes的自动扩容特性,通过发送大量请求触发资源过载,导致AI服务无法正常运行。
白山云安全实验室作为业内领先的网络安全服务商,凭借丰富的创新技术探索和实战经验,为AI大模型和AIGC企业提供专业的安全解决方案。其云WAF产品能够精准识别与过滤攻击流量,实现应用层深度检测和实时阻断与防护。白山云还提供模型安全漏洞扫描、数据安全监测、威胁情报共享以及应急响应服务等配套安全服务,为AI业务的持续稳健运营保驾护航。