2025-02-23 智能 0
周鸿祎认为,大模型真正的机会在企业级市场,中国做大模型,最应该抓住产业发展的机会。但目前的公有大模型用在政府、城市、行业等企业级场景时,存在四点不足,包括缺乏行业深度、数据安全隐患、无法保障内容可信、训练和部署成本过高等。
“公有大模型存在很多数据安全隐患。每个企业自己内部的Know-how是核心资产,肯定不会训练到公域大模型;公有大模型使用会有数据泄露的问题,因为很多想法和计划都要告诉它,它才能写出一篇好的文章;公有大模型是生成式AI,本身算法的特点就是会胡说八道,而且是一本正经、理直气壮地胡说八道,这个特点用来做小说、写剧本,作为聊天机器人逗闷子效果很不错,但放在企业级场景问题就很大,要是真的拿医疗大模式开的药方,你敢不敢相信、敢不敢吃;公有大模型无法实现成本可控,因为大模型成本之高也被渲染得很厉害,训练一次要一千万美金,需要多少算力、多少显卡,企业内部做垂直big model也不用追求知识全面,也不用追求能力面面俱到,一亿参数可能就足够了,一千亿参数看起来参数做小了十倍,但节省的是训练和部署成本可远远超过十倍。”
周鸿祎直言未来企业级市场真正需要的大型语言处理系统(LLaMA)或其他类似的技术产品要符合以下几个原则:首先是安全性原则,即确保网络安全与数据安全,以及防止算法被用于恶意目的。其次,是内容准确性原则,可以通过校正解决输出内容错误的问题。这要求我们构建一个强大的数据库,以便能够纠正任何潜在错误。此外,还必须考虑到可控性原则,即让这些系统成为工具,而不是决策者的替代品。最后,他建议采用监控审计手段,对这些系统进行控制,并将它们置于现有的业务流程中。
对于如何正确使用这些新兴技术产品,他提出了三个建议:首先,让这些工具发挥他们最擅长的事情,比如信息分析和决策支持。在这个过程中,我们可以利用现有的业务流程,将新的功能整合进去,使之更为有效。如果我们能正确地利用这项技术,就可以极大的提高工作效率,同时减少误差。
其次,在实际应用中,我们应当将这类工具视作辅助员工而非取代员工。在一些复杂任务上,这些系统可能无法完全替代人类判断,因此我们的目标应该是在一定程度上帮助员工,而不是完全取代他们。这样,我们既能利用这些新技术,又能保持对人类技能价值的尊重。
最后,与此同时,我们应当避免恐慌性的反应,如担心AI将导致大量裁员。他坚定反对这种观点,因为尽管AI已经非常强悍,但它仍然不能独立完成所有工作。大多数情况下,它都是为了提供帮助,而不是主导整个过程。因此,如果我们能够以正确的心态接受并利用这项技术,那么它无疑会带来巨大的好处。
他还指出数字人即将成为推动这一领域发展的一个关键因素。他展示了一些已经开发出来的小型化数字助理,他们可以针对特定的任务执行,并且相比于传统的人机交互方式更加灵活、高效。此外,还有一些公司正在研究如何使用户界面更加友好,便于普通用户操作,使得这一领域变得更加接近普及层面的应用需求。
总结来说,无论是在教育还是商业领域,大规模语言处理系统都具有广泛的地位,不仅因为它们能够快速学习并掌握各种知识,而且因为它们似乎拥有解释复杂概念的一种独特能力。但即便如此,大规模语言处理系统仍需更多时间成熟,更重要的是,它们需要人们不断努力去理解它们所具备的情感智能以及决策能力,为此设计出更精细化的手段以加以管理。这意味着虽然目前看似不可思议,但是随着时间推移,这项革命性的技术必将逐步完善,并且进入我们的日常生活中,从而改变我们的世界观念与行为模式。