2025-02-08 智能 0
品玩6月1日讯,据 HumanLoop 创始人 Raza Habib 近日与 OpenAI 主管 Sam Altman 以及其他 20 位开发者进行的闭门讨论中透露的一些关于 OpenAI 未来开发工作内容。关键要点如下:
首先,OpenAI 目前受到 GPU 严重限制,这在整个讨论过程中成为一个共同主题之一。由于 GPU 的有限性,一些短期计划被推迟,而客户最大的抱怨是 API 可靠性和速度问题。Sam 承认了这些担忧,并解释说大部分问题都是由 GPU 短缺导致的。
其次,尽管即将到来的 32k 上下文还不能广泛推广给更多人,但 OpenAI 还没有克服 O(n^2)的注意力扩展,所以虽然他们很快就会有10万-1M代币上下文窗口(今年),但任何更大的事情都需要研究突破。此外,微调 API 目前也受限于GPU可用性,未来将提供更好的微调支持。
再者,专用容量产品同样受限于GPU可用性。在访问此服务时,要预先承诺10万美元的支出。这表明OpenAI近期路线图包括:
2023年:降低“智能成本”,目标是创建更便宜、快速的 GPT-4,以及实现长上下文窗口、高达100万令牌,并扩展微调API以适应最新模型。此外,将会有一种记住对话历史记录的API版本。
2024年:多模态功能作为GPT-4版本的一部分进行演示,但由于GPU数量限制,这一功能无法扩展给所有用户。
最后,由于插件可能不会迅速进入API,有关通过API访问ChatGPT插件的问题也引起了热烈讨论。一些开发人员表示,当OpenAI发布具有竞争力的产品时,他们对于使用OpenAI API构建应用程序感到紧张。不过,Sam 表示OpenAI不会发布与ChatGPT竞争的产品,而是致力于通过成为自己产品客户来改进API。
值得一提的是,对于监管和开源的问题,也有所探讨。Sam 呼吁对未来的模型进行监管,同时强调现有模型并不危险。他重申了他对开源重要性的信念,并表示 OpenAI 正在考虑开源 GPT-3,但尚未决定,因为他怀疑是否有人能托管和服务大型 LLM。
此外,不少文章声称“巨型 AI 模型时代已经结束”,但根据内部数据显示,即使如此,“模型性能的扩展定律”仍然有效,使得随着时间推移,每年的性能提升幅度可能会逐渐减小,而非每次都会出现巨大的飞跃。如果这一观点正确,那么它对AGI发展时间表具有重大影响,为缩放假设提供了支持,即我们可能已经具备构建AGI所需的大部分部分,只需将其扩展到更大的数据集和模型中。但如果这一定律继续有效,那么时间线可能会更加接近实际情况,从而加速 AGI 的研发进程。
上一篇:花语绘卷曼陀罗的寓意与文化意义
下一篇:绽放千日红穿越时光的摄影故事