2025-02-08 智能 0
品玩6月1日讯,据 HumanLoop 创始人 Raza Habib 近日与 OpenAI 主管 Sam Altman 以及其他 20 位开发者进行的闭门讨论中透露的一些关键信息,OpenAI 目前正面临着 GPU 缺口问题,这不仅推迟了他们的短期计划,也是客户抱怨 API 可靠性和速度不足的主要原因。Sam Altman 承认了这些担忧,并解释说大部分问题都是由于 GPU 短缺导致。
更重要的是,尽管 OpenAI 即将实现10万到1百万代币上下文窗口,但任何超过32k上下文窗口的扩展都需要进一步研究突破。此外,微调 API 也受限于 GPU 的可用性,他们尚未采用有效的微调方法,因此微调运行和管理非常依赖计算密集型资源。未来,他们计划提供更好的微调支持,并可能会主办社区贡献模型市场。
此外,OpenAI 还提供专用容量产品,为客户提供私人模型副本,但这项服务受到 GPU 可用性的限制,而要访问此服务,客户必须预先承诺10万美元支出。
至于 OpenAI 的近期路线图,其目标是降低“智能成本”,包括在2023年推出更便宜、更快的 GPT-4,以及在不久后实现长达100万令牌的上下文窗口。此外,他们还计划扩展微调 API 到最新模型,并引入一个有状态的 API 版本,以记住对话历史记录,不再需要重复传递相同对话内容并多次支付费用。
对于2024年的规划,则重点放在多模态功能上,这作为 GPT-4 版本的一部分已经进行过演示,但由于GPU数量限制,它们无法为所有用户开放。而且,由于插件通过API访问ChatGPT并不容易发布,大多数开发人员认为这样的插件不会很快出现。同时,对于竞争的问题,Sam 表示 OpenAI 不会发布与其客户竞争产品,只会利用 ChatGPT 来改进其API。
值得注意的是,在监管和开源方面,有观点呼吁对未来模型进行监管,同时也强烈要求它们保持开源状态。尽管如此,有数据表明,即使巨型 AI 模型时代被认为已经结束,其性能仍然可以通过继续增加规模来显著提升。这意味着即使每年增长一倍或三倍,也能持续产生性能提升,对 AGI 开发时间表具有重大影响。如果缩放假设成立,那么我们可能就拥有构建 AGI 所需的大部分技术,只需应用现有方法并扩展到更大的数据集即可。不过,如果缩放定律继续有效,那么我们可能应该期待AGI发展较早一些。