2025-01-15 手机 0
据外媒MSPoweruser报道,GPT代表了一个革命性的语言模型,它由Alec Radford开发,并于2018年由OpenAI发布。该模型采用了生成式语言模型的技术,通过对大量书面材料和长篇连载文本的预训练,能够获取广泛的世界知识并处理复杂的依赖关系。
在2019年2月,GPT-2被宣布,这是一个无监督的转化语言模型,它是在800万份文档上训练出来的,包含40GB的大量文本数据,这些数据来源于Reddit用户分享的文章。然而,由于担心它可能被用于散播假新闻,因此埃隆·马斯克未对其进行公开发布。
2020年5月,OpenAI推出了GPT-3,这个模型拥有比GPT-2多几个数量级参数(1750亿vs 15亿),展现出显著提高。它能够接收任何文本提示,并返回一个完善的文本响应,以匹配用户提供的情景模式。用户甚至可以使用纯文字描述来创建应用程序,如Jordan Singer开发的一款Figma插件。
此外,GPT-3还可作为一种搜索引擎或神谕服务,不仅能解释复杂概念,还能扩展难以理解的问题。不过值得注意的是,即使这种技术看似接近人类水平智能,但OpenAI警告称,他们遇到了扩展性问题:GPT-3需要几千petaflop/s-day计算量,而完整版GPT-2只需几十petaflop/s-day。这意味着虽然技术进步迅速,但实现真正的人工智能仍然面临巨大挑战。在GitHub上可以找到更多关于GPT-3相关信息。