2025-01-04 手机 0
在网络安全领域,ChatGPT的应用正在逐步展开。从各大公司推出的GPT落地方案来看,大多数都是针对安全事件响应、漏洞挖掘和风险评估等场景。不过,在与业内专家交流时,我们发现,每家公司在技术路径上都有自己的差异。
OpenAI的ChatGPT以及后续版本的GPT4.0,以及百度推出的大型语言模型文心一言,都属于通用大模型,它们能够在一般场景下表现良好,但是在特定行业特别是需要高容错率的地方,这些模型可能会遇到挑战。
因此,当网络安全企业使用这些大型语言模型时,他们不能像其他行业一样直接使用已经训练好的模型,而是需要重新构建一个专门用于网络安全领域的大型语言模型,然后将其应用于实践中。
然而,即使是在同样的目标——训练一个专门用于网络安全的大型语言模型,各个公司也选择了不同的技术路线。有的先构建了一个安全知识图谱,然后在类似ChatGPT的大型语言模型基础上进行加工;有的则没有使用类似的ChatGPT,而是直接利用大量数据包括日志、威胁情报和开源情报等进行训练;还有的是强调数据而非知识图谱。
绿盟科技CTO叶晓虎提到了他们过去积累的数据,这些数据经过智能化处理形成了一系列实战化攻防模块以及安全知识图谱,并且通过这种方式开发出了即将发布的网络安全领域问答系统。
四维创智的人工智能项目负责人陈平表示,他们推出的垂直领域大型语言模型ChatCS,是通过RLHF技术微调并结合知识图谱进行域内知识约束。他认为首先要构建以“漏洞概念”为核心的网络安全领域知识图谱—Vuln_Sprocket,再将该图谱生成先验知识集去训练这个垂直领域大的模式。最新测试版本中的ChatCS_test虽然只有82亿参数,但已经能完成复杂操作如问题回答、脚本生成和告警日志分析等任务。
尽管目前还未完全披露所有细节,但据分析,360集团可能采用的是一种不同的方法,从通用大类型底座开始,然后加入相关数据进行优化。这表明每家公司都有自己独特的问题解决方法。但无论如何,每家的最终目标都是为了提升自动化程度,让机器更有效地帮助人类做决策和行动。
随着时间的流逝,一种现象变得越发明显:自从ChatGPT火起来以来,不仅学术界,对于这种新兴技术感到好奇,那些曾经只是小规模尝试过但未能成功的小团队也被激励起来重新考虑这一可能性。而现在似乎正处于探索阶段,就连那些初期失败的小规模尝试现在也有了新的希望,因为事实证明这条路行得通。
上一篇:重生之容少逆袭的美丽传奇