2025-02-08 智能 0
品玩6月1日讯,据 HumanLoop 创始人 Raza Habib 近日与 OpenAI 主管 Sam Altman 以及其他 20 位开发者进行的闭门讨论中透露的一些关于 OpenAI 接下来的开发工作内容。首先,OpenAI 目前受到 GPU 严重限制,这导致了他们许多短期计划的推迟。客户最大的抱怨是 API 的可靠性和速度问题,而 Sam 承认并解释这些问题主要源于 GPU 短缺。
此外,更长的 32k 上下文还无法广泛推广给更多人,因为 OpenAI 还未克服 O(n^2)的注意力扩展问题。不过,他们预计将在今年内提供10万-1M代币上下文窗口。微调 API 也受限于 GPU 可用性,但未来将提供更好的微调支持,并可能主办社区贡献模型的市场。
专用容量产品同样受限于 GPU 可用性,而且要访问此服务,客户需要预先承诺10万美元支出。此外,Sam 分享了他认为 OpenAI API 暂时近期路线图包括2023年降低“智能成本”的目标,比如更便宜、更快的 GPT-4,以及增加上下文窗口到100万令牌。
2024年则重点放在多模态功能上,这作为 GPT-4 版本的一部分进行了演示,但由于没有足够的GPU资源,没有办法扩展给所有人。此外,不会很快看到插件加入API,因为这些插件目前还没有形成产品市场定位(PMF)。OpenAI 也表示不会发布竞争对手产品,以避免与其客户竞争。
最后,虽然有呼吁对未来模型进行监管,但Sam 强调现有模型并不危险,对开源重要性的信念,并表示 OpenAI 正在考虑开源 GPT-3。然而,由于怀疑是否有人或公司能托管和服务大型 LLM,因此尚未开源。而且,即使“巨型 AI 模型时代已经结束”也被指称为不准确的事实,其内部数据表明模型性能扩展定律仍然有效,使得随着时间推移,每年的增长速度可能只有一个数量级而不是几个数量级。这对于 AGI 开发时间表具有重大影响,并提示时间线较短。如果缩放假设成立,那么我们可能已经具备构建 AGI 所需的大部分部分,只是在等待将其应用到更大的模型和数据集中。
上一篇:工控执行机构设备应用与实践