2025-02-24 数码 0
机器之心报道:OpenAI面临GPU短缺,GPT-3或将开源
机器之心编辑部
在前沿科技2023的舞台上,OpenAI正遭遇着一场难以预料的挑战——GPU(图形处理单元)短缺。自ChatGPT问世以来,这款大型语言模型不仅吸引了全球范围内广泛关注,还引发了对人工智能可控性和未来发展方向的深刻担忧。
包括图灵奖得主Geoffrey Hinton、Yoshua Bengio等知名AI专家在内的行业界限人士,一直警告称大型语言模型可能带来不可预测的风险甚至呼吁暂停GPT-4后续的大型语言模型研发。作为ChatGPT与GPT-4背后的公司,OpenAI被推上了风口浪尖。其CEOSam Altman近期正在全球进行演讲,旨在消除人们对人工智能的恐惧,同时也听取开发人员和用户的声音。
据《Fortune》报道,Sam Altman曾与一些开发人员及初创公司创始人进行闭门会谈,并分享了OpenAI未来的规划和面临的问题。这次闭门会议的一位参与者—Humanloop联合创始人兼CEO Raza Habib最近在博客中提到了一些关于OpenAI产品规划和发展瓶颈的问题。
原博客已删除,但有网友上传了博客快照,我们可以查看其中内容:
目前,OpenAI面临严重限制于GPU,这也延缓了一些计划实施。在API可靠性和速度问题方面,由于GPU短缺,这也是客户投诉最多的问题。Sam承认这个问题,并解释说客户抱怨的大部分是由GPU短缺造成。
此外,对于更长32k上下文窗口,大型语言模型还不能面向更多的人群推出。此外,更大的文本处理窗口需要进一步研究突破。而微调API同样受到GPU供应限制。大型语言模型尚未使用像Adapters或LoRa这样的高效微调方法,因此微调运行和管理都非常密集。
不过,在接下来的路线图中,有两个阶段:
2023年:首要任务是推出更便宜、更快的大型语言模型,即GPT-4;成本降低;支持更长上下文窗口 —— 将达到100万个token;扩展微调API至最新模式,让开发者决定具体形式;状态API记住会话历史记录,以减少重复支付。
2024年:多模态功能作为一个版本的一部分进行展示,但由于没有足够多的GPUs,它们无法扩展给所有用户。此外,将不会很快看到插件PMF,也就是浏览以外使用插件的情况。这意味着这些插件虽然受欢迎但并非立即发布,因为它们并不具备足够强烈的心理市场需求(PMF)。
尽管监管对于未来的技术具有必要性,但同时开源同样重要。在考虑监管时,不应该忽视现有技术所带来的潜在危险,而是应当鼓励透明度,以及让社区能够共同探索如何安全地利用这些技术。根据Raza Habib所述,从某种程度上说,即使现在我们认为存在巨型人工智能时代结束论断,其实这只是表达一种观点,而不是事实。在内部数据显示中,没有证据表明扩展定律已经失效,或许只是一种误导性的理解。如果我们继续采用类似的思维方式去构建AGI,那么时间将更加紧迫。但如果我们能够利用当前已有的工具,使其变得更加强大,那么实现AGI就会变得更加迅速而且有效率。
综上所述,当今世界对于Artificial General Intelligence(通用人工智能)的追求充满期待,同时也伴随着无数挑战。在这个前沿科技2023年的背景下,无论是从技术进步还是政策制定角度看,都需持续关注这场围绕人类智慧与机器之间关系的争论与探索。