2025-02-07 智能 0
品玩6月1日讯,据 HumanLoop 创始人 Raza Habib 近日与 OpenAI 高级管理人员进行的深入探讨中,透露了该公司未来的发展规划。以下是对话中的几个关键点:首先,OpenAI 目前面临着严重的 GPU 限制,这导致他们推迟了许多短期计划。客户最大的抱怨是 API 的可靠性和速度问题,而 Sam Altman 承认这些担忧,并解释说大部分问题都是由于 GPU 短缺造成的。
其次,尽管 OpenAI 将在今年提供10万-1M令牌上下文窗口,但更大规模的上下文扩展仍需进一步研究突破。此外,由于当前没有有效的微调方法,如适配器或洛拉,因此微调运行和管理需要大量计算资源。未来,他们将提供更好的微调支持,并可能推出社区贡献模型市场。
再者,OpenAI 提供专用容量产品,但这种服务受限于GPU可用性。要使用此服务,客户必须预先承诺10万美元支出。
接下来,是Sam分享的OpenAI近期API路线图:
2023年:更便宜、更快的GPT-4,这是他们目前主要任务之一。总体目标是在未来降低“智能成本”,因此随着时间推移,他们会努力降低API成本。此外,将来可能实现长达100k令牌上下文窗口、Finetuning API以支持最新模型,以及一个有状态的API,以记住对话历史记录。
2024年:多模态功能将作为GPT-4版本的一部分进行演示,但在更多GPU设备部署之前不会向所有用户开放。
最后,不太可能很快看到插件通过API访问ChatGPT,因为插件还没有达到产品市场定位(PMF)。Sam建议,对于希望在应用程序中集成ChatGPT的人来说,他们真正想要的是应用程序中的ChatGPT,而不是通过API直接访问ChatGPT。不过,他也强调OpenAI不会发布竞争对手产品,只会成为它们自己的客户,从而改进API性能。他呼吁监管未来的模型,同时认为现有模型并不危险,并且监管或禁止它们将是一个错误。此外,他重申了开源重要性的信念,并表示OpenAI正在考虑开源GPT-3。
值得注意的是,即使有人声称“巨型 AI 模型时代已经结束”,但根据内部数据显示,在保持效率的情况下,大型化继续能够提升模型性能。这意味着虽然每年的增长速度无法维持数百万倍增长,但仍然可以持续增加一倍或三倍,这对于AGI开发具有重大影响。如果缩放假设成立,那么我们可能已具备构建AGI所需的大部分技术,只待扩展到更大的数据集。但如果缩放定律失效,那么我们不得不重新评估AGI实现时间表。