2025-01-04 手机 0
在网络安全领域,ChatGPT的应用正在逐步展开。从各大公司推出的GPT落地方案来看,大多数都是针对安全事件响应、漏洞挖掘和风险评估等场景。不过,在与业内专家交流时,我们发现,每家公司在技术路径上都有自己的独到之处。
OpenAI的ChatGPT以及后续的GPT4.0,以及百度推出的一些类似的模型,都属于通用的大型语言模型,它们能够在很多场景下表现良好,比如客服、文本生成等。但是,对于那些需要高度专业知识和容错率较高的行业来说,这些通用模型就显得力不从心了。
因此,当网络安全企业使用这些大型语言模型时,他们不能像其他行业那样直接接入现成的模型,而是需要重新训练一个专门用于网络安全领域的大型语言模型,然后将其应用到实际工作中。
然而,在与业内人士的交流中,我们发现,即使是在同一领域内训练大型语言模型,每家的技术路线也是不同的。有的公司先构建了一个安全知识图谱,然后在这个基础上加工;有的则直接使用这些数据训练出了一个新的大型语言模型;而有些则可能没有强调知识图谱,而是利用所有数据进行训练。
绿盟科技CTO叶晓虎表示:“我们积累了大量相关数据,这些数据包括了安全日志、系统日志,威胁情报生产和分析过程数据,以及开源情报和安全技术报告等。这些建立了一系列实战化攻防模式以及安全知识图谱。”
然后,绿盟科技利用类似ChatGPT的大型语言模型对这些知识进行进一步加工,从而形成了适用于网络安全领域的一个问答系统,该系统将于今年三季度发布。
四维创智的人工智能项目负责人陈平也指出,他们所开发的ChatCS是一个使用RLHF(Reinforcement Learning from Human Feedback)技术微调,并且利用知识图谱进行领域知识约束的垂直领域大型语言模型。他们首先构建了一张以“漏洞概念”为核心的地理位置数据库—Vuln_Sprocket,再将数据库转换成先验知识集去训练这个大型语言模型。结果显示,即便只有82亿参数,ChatCS_test已经能够完成诸如回答问题、生成测试脚本以及分析告警日志等操作。
虽然其他几家网络安全厂商尚未完全披露他们如何训练这类机器,但据业界分析,360集团应该采取的是一种基于通用大的类型化优化路径,与绿盟科技和四维创智有很大的不同。
尽管每个厂商都选择了一条自己的道路,但最终目标是一致的:提供更有效的手段来处理各种复杂的问题。在短短几个月时间里,这些厂商就迅速行动起来,将他们手头上的相关数据集结合起来,以便最大限度地发挥出这些新兴工具带来的潜能。而这一切,也许正是因为人们认识到了无论如何,要让这种变革发生,就必须承认它带来的挑战,并愿意面对它们并解决它们。如果说之前人们只是尝试过一些小规模的事物,那么现在随着ChatGPT成功展示了这一点,现在大家才敢于投入更多资源去探索这一前沿科学的话题。(本文首发钛媒体App 作者 秦聪慧)