2025-01-04 科技 0
在网络安全领域,ChatGPT的应用正在悄然渗透。从各家公司披露的使用案例来看,大多数都是面向安全事件响应、漏洞挖掘和风险评估等场景。不过,在与行业内人士的交流中,我们发现虽然应用场景有所重合,但每家公司选择的技术路径却各有不同。
OpenAI的ChatGPT以及随后的迭代版本,如百度推出的文心一言,都属于通用大模型,这些模型在一般场景下表现出色,但在特别垂类且对答案容错率较低的行业中,比如网络安全,它们会显得力不从心。因此,当网络安全企业使用GPT时,他们不能像其他行业那样直接接入已经训练好的模型,而是需要重新构建一个专门用于网络安全的大模型,然后将其应用到实践中。
然而,每家公司在训练这样的大模型时,都有自己的做法:有的先建立了一个安全知识图谱,然后基于这个图谱加工;有的则没有依赖于特定的图谱,而是直接以大量数据为基础进行训练;还有些可能并未强调知识图谱,而是通过所有数据进行智能化处理。
绿盟科技CTO叶晓虎表示:“我们积累了大量关于日志、威胁情报和开源情报等数据,这些数据通过AI智能化形成了一系列攻防模型和知识图谱。”之后,他们利用类似ChatGPT的大语言模型对这些知识进行进一步加工,以此形成针对网络安全领域的问题答疑系统。
四维创智项目负责人陈平也提到了他们推出的ChatCS:“我们首先构建了一个以‘漏洞概念’为核心的网络安全领域知识图谱—Vuln_Sprocket,再将该图谱用于生成预先知识集,用于训练我们的垂直领域大语言模型。”尽管ChatCS仅有82亿参数,但它能够完成复杂任务,如问答、测试脚本生成和告警日志分析。
目前,其他几家企业尚未完全公开他们如何训练GPT,但据业内分析,360集团可能采用的是一种不同的方法,将通用大模型作为基础,并加入特定数据进行优化。尽管如此,无论采取何种路径,最终目标都是相同的一致,即利用机器学习来提升信息收集、威胁检测以及应急响应能力。
总之,对于OpenAI火爆后,网络安全圈才开始关注这种新兴技术而感到惊讶,可以理解为这背后隐藏着更深层次的问题——高质量的人工智能语料库,以及持续投资信仰并保持创新精神。这不仅是一个尝试成功的小步伐,也预示着未来可能会发生根本性的变化,使得攻击方式从经验式转变成更加科学规范化。
下一篇:构图技巧画面美学的精髓