2025-02-08 智能 0
品玩6月1日讯,据 HumanLoop 创始人 Raza Habib 近日与 OpenAI 主管 Sam Altman 以及其他 20 位开发者进行的闭门讨论中透露的一些关于 OpenAI 未来开发工作内容。关键要点如下:
首先,OpenAI 目前受到 GPU 严重限制,这在整个讨论过程中成为一个共同主题。他们的短期计划因此而推迟,而客户最大的抱怨是 API 可靠性和速度问题,这些大部分都是由于 GPU 短缺造成的。更长的 32k 上下文也还不能普及给更多人,因为 OpenAI 尚未克服 O(n^2)的注意力扩展问题,因此虽然将有10万-1M代币上下文窗口(今年),但任何更大的事情都需要研究突破。此外,微调 API 也受到 GPU 可用性的瓶颈,他们还没有使用有效的微调方法,如适配器或洛拉,因此微调运行和管理非常依赖计算密集型。未来将提供更好的微调支持,并可能主持社区贡献模型市场。
其次,关于 OpenAI 的近期路线图,Sam 提供了以下信息:
2023 年:OpenAI 的目标是尽可能降低“智能成本”,因此随着时间推移,他们将努力继续降低 API 成本。此外,将会实现更长的上下文窗口,即不久后,上下文窗口可能高达 100 万个令牌;Finetuning API 将扩展到最新模型,但具体形式取决于开发人员表示他们真正想要什么;还有一个有状态的 API 版本,将记住对话历史记录。
2024 年:多模态功能作为 GPT-4 版本的一部分进行演示,但在更多 GPU 上线之前不能扩展到所有人。
值得注意的是,对于插件API访问ChatGPT,由于浏览之外插件使用表明它们还没有产品市场定位(PMF),Sam 表示这些插件不会很快发布。他强调伟大的平台公司拥有杀手级应用程序历史,而 ChatGPT 将允许他们通过成为自己产品客户来改进API。
此外,尽管 Sam 呼吁对未来模型进行监管,但他认为现有模型并不危险,并认为监管或禁止它们将是一个错误。他重申了开源重要性的信念,并表示 OpenAI 正在考虑开源 GPT-3。但是,由于怀疑是否有人能托管和服务大型 LLM,他尚未决定公开开放来源代码。
最后,有关模型性能扩展定律的问题,有些文章声称“巨型 AI 模型时代已经结束”,这是不准确的情况。在内部数据显示,不同规模的大型语言模型(LLMs)每年增长一倍至三倍,而不是增加数十数量级。这意味着缩放假设,即我们已经具备构建通用人工智能所需的大部分基础设施,而且剩下的主要工作只需要采用现有方法并将其扩展到更大的模式和数据集,是可行且合理的一个预测。如果这种情况持续下去,那么 AGI 开发时间表也许比预想中的要短得多。
下一篇:绽放的爱情七夕的独特魅力