当前位置: 首页 - 智能 - 7个月了中国AI大模型仍未学会与ChatGPT抗衡科学发展新篇章

7个月了中国AI大模型仍未学会与ChatGPT抗衡科学发展新篇章

2025-02-23 智能 0

周鸿祎指出,中国在大模型领域的发展仍需改进。目前公有大模型在企业级应用中存在四个主要问题:缺乏行业深度、数据安全隐患、无法保证内容可信性、以及训练和部署成本过高。这些挑战阻碍了大模型的广泛应用和深入融合于企业业务流程中。

首先,大模型需要更加贴近行业特点,才能有效地服务于各行各业。其次,大规模数据集是构建大模型所必需的,但这也带来了严峻的数据安全问题。大模型可能会泄露敏感信息,因为它们需要访问大量的人类知识,这些知识往往涉及商业秘密或个人隐私。此外,大型语言生成AI系统容易产生虚假信息,它们可以以令人信服的方式制造谣言或误导,这对于企业来说尤为危险。

为了解决这些问题,周鸿祎提出三个原则:安全性、大模型必须能够提供准确且可靠的信息;可控性,以便企业能够监控并管理大模型;以及易用性,使得员工能轻松使用这些工具来提升工作效率。

他强调,虽然技术发展迅速,但对人工智能(AI)的依赖不应忽视。在未来的数字化转型中,人类将继续扮演核心角色,而AI仅作为辅助工具。如果没有明智地利用人力资源,我们可能会面临人才短缺的问题。而且,对于许多职位而言,即使引入了AI辅助,也难以完全自动化,因此对员工进行培训和教育至关重要,以确保他们能够与新兴技术共存并发挥优势。

周鸿祎还提到,将来数字人将成为推动企业级应用的大模式前沿。他展示了一些定制化的大模式数字人,如北京客服问不倒和北京城市招商宝,这些数字人已经开始为政企领域解决一些核心需求。他认为,用好这个机会,是实现产业升级和创新发展的一个关键因素。

此外,他指出了中国电信集团正在开发的一种名为TeleChat的大模式,该产品支持输出代码、撰写演讲稿等功能,并已开始在厂商智能化方面取得成功,为社会治理能力现代化提供帮助,同时降低成本消耗。

总之,在全球范围内,大规模语言理解与生成(LLaMA)技术正快速发展,而中国也在积极参与其中。然而,要想让这一趋势惠及更多人的生活,我们必须确保它既安全又有控制,又能真正提高效率,让每个人都能从中受益。这要求我们考虑如何平衡技术创新与社会责任,以及如何确保这种创新不会导致新的不平等或失业问题。

标签: 人工智能制造人工智能未来发展人工智能典型应用智能工业产品家装智能电路控制系统