2025-01-04 手机 0
当网络安全行业在使用GPT的时候,并不能像其他行业一样直接接入已经训练好的GPT4.0,而是需要重新构建一个用网络安全领域的专业知识训练出的大模型,然后再将其应用到实践中。然而,在与业内人士交流的过程中,钛媒体App发现,同样是训练网络安全领域的大模型,每家所选择的技术路线也有所差异。
他们有的是先有安全知识图谱,然后在类ChatGPT的大模型基础上加工;有的是没有类ChatGPT的大模型,而是直接用安全知识图谱训练成一个大模型;也有的可能并没有强调知识图谱,而是用所有数据直接训练。这些不同的路径反映了不同公司对未来大型语言模型发展战略的不同看法和准备。
“过往实践过程中,我们积累了大量数据,这些数据可能包含了安全日志、系统日志,威胁情报生产和分析过程数据,开源情报和安全技术报告、APT报告等等,这些数据通过AI智能化,形成一系列实战化攻防模型以及安全知识图谱。”绿盟科技CTO叶晓虎表示。
利用这些实战化攻防模型以及安全知识图谱后,大型语言模型就可以被用于更复杂的问题解决,比如生成测试脚本、进行告警日志分析甚至编写代码。这不仅展示了大型语言模式对于提高工作效率的潜力,也预示着未来的攻击者可能会采用更加高级的手段来应对这种新的威胁。
不过,这场长跑才刚刚开始。在短短三四个月内,不少厂商都能够快速上马大型语言模式项目。而且,与OpenAI火星之后,一些厂商才开始关注这个方向这一点,让我们不得不思考为什么直到现在为止,大型语言模式还没能真正成为主流工具?
原因可能在于,对于大规模部署来说,更重要的问题并不仅仅是在于技术本身,还包括获取高质量的语料库,以及持续不断地进行优化以保持性能。同时,对于一些创业者而言,只要有一次成功,他们就会更加坚定地投入资源去开发更多基于这样的工具。
很显然,即使OpenAI只是个起点,但无数试错仍在等待那些勇敢追求创新的人们。这又是一场长跑。(本文首发钛媒体App 作者 秦聪慧)