2025-02-08 智能 0
品玩6月1日讯,据 HumanLoop 创始人 Raza Habib 近日与 OpenAI 主管 Sam Altman 以及其他 20 位开发者进行的闭门讨论中透露的一些关于 OpenAI 未来开发工作内容。关键要点如下:
首先,OpenAI 目前受到 GPU 严重限制,这在整个讨论过程中成为一个共同主题之一。由于 GPU 的有限性,一些短期计划被推迟,而客户最大的抱怨是 API 可靠性和速度问题。Sam 承认了这些担忧,并解释说大部分问题都是由 GPU 短缺造成的。此外,更长的 32k 上下文还不能广泛推广给更多人,因为 OpenAI 还未克服 O(n^2) 注意力扩展的问题。
其次,微调 API 也受到 GPU 可用性的瓶颈影响,他们还没有使用有效的微调方法,如适配器或洛拉,因此微调运行和管理非常依赖计算密集型。未来将提供更好的微调支持,并可能主持社区贡献模型市场。而专用容量产品受限于 GPU 可用性,客户必须预先承诺10万美元支出才能访问此服务。
接着,Sam 分享了他认为 OpenAI API 暂时近期路线图:
2023年:更便宜、更快的 GPT-4 是他们首要任务,以降低“智能成本”。随着时间推移,将继续努力降低 API 成本。在不久的将来,上下文窗口可能达到100万个令牌。此外,将会有一个记住对话历史记录的API版本。
2024年:多模态功能作为 GPT-4 版本的一部分进行演示,但由于GPU数量限制目前无法扩展到所有用户。这意味着插件也不会很快出现在API中,因为它们还没有达到产品市场定位(PMF)。
最后,尽管一些开发人员表示当 OpenAI 发布具有竞争力的产品时,他们对使用 OpenAI API 构建应用程序感到紧张,但 Sam 表示OpenAI不会发布与 ChatGPT 类似的其他产品。他强调伟大的平台公司拥有杀手级应用程序历史,而 ChatGPT 将允许它们通过成为自己产品客户来改进API。
此外,虽然 Sam 呼吁对未来模型进行监管,但他认为现有模型并不危险,他重申了开源重要性的信念,并表示 OpenAI 正在考虑开源 GPT-3。不过,由于怀疑是否有足够的人和公司能够托管和服务大型 LLM,这一决定尚未作出。
值得注意的是,即使最近有一些文章声称“巨型 AI 模型时代已经结束”,但根据内部数据显示,模型性能扩展定律仍然有效,使得随着时间增长,每年的增幅可能只是一倍或三倍而非数十倍。这对于 AGI 开发时间表具有重大影响,如果缩放假设成立,那么我们可能已经具备构建AGI所需的大部分部分,其余工作将采用现有方法并将其扩展到更大的模型和数据集。如果缩放定律继续成立的事实是强烈提示时间线较短。
下一篇:工业仪表自动化的未来趋势是什么