2025-02-24 数码 0
《2021年中国十大科技新闻事件:GPT-3或将开源,解锁AI新篇章?》
随着人工智能技术的飞速发展,尤其是深度学习模型的大型推出,如OpenAI的ChatGPT和GPT-4,这一领域引发了全球范围内的广泛关注。然而,这些高性能模型也面临着GPU短缺的问题,这种情况正在成为制约人工智能研究与开发的一个瓶颈。
据报道,OpenAI目前正面临严重的GPU限制,这不仅影响了API的可靠性和速度问题,也延误了公司一些短期计划。CEO Sam Altman承认这一挑战,并指出客户抱怨的大部分问题都是由GPU短缺造成的。
此外,微调API也是受限于GPU供应的情况。这意味着当前尚未采用像Adapters或LoRa这样的高效微调方法,因此微调运行和管理都非常密集。Sam透露更好的微调技术将在未来推出,他们甚至可能提供一个社区专门研究模型。
在近期路线图中,OpenAI计划推出更便宜、更快的GPT-4,以及扩展上下文窗口到100万个token。此外,还有状态API和多模态功能等新特性即将来袭。不过,对于插件功能,Sam表示它们不会很快被包含在API中,因为这些插件还没有获得足够的人口心理学(PMF)。
值得注意的是,即使监管对于未来的模型来说是一个必要话题,但Sam强烈认为现有的模型并不危险,他反对对它们进行监管或禁止。他重申了开源重要性的观点,并表明OpenAI正在考虑开源GPT-3。尽管如此,他也提醒说,由于这类大型语言模型管理起来极其复杂,所以即使考虑过也不容易做到。
最后,一些分析认为“巨型人工智能时代已经结束”,但Sam认为扩展定律仍然有效,而且增大规模会继续提高性能。他指出了AGI(通用人工智能)实现所需的一系列要素已经存在,只需要通过现有方法向更大的数据集和模型扩展就能达到目标。如果正确理解这个趋势,那么我们可能会比预期要早很多时间实现AGI。