2025-01-15 数码 0
据外媒MSPoweruser报道,GPT代表了一个革命性的语言模型,它由Alec Radford开发,并于2018年由OpenAI发布。该模型采用了生成式语言模型的技术,这种技术通过两个神经网络之间的竞争与合作来完善其表现。通过对大量书面材料和长篇连载文本进行预训练,GPT能够获取世界知识并处理复杂的长程依赖关系。
GPT-2在2019年2月宣布,它是基于800万份文档和40GB文本数据训练出来的一个无监督转化语言模型。这一数据集来源于Reddit用户分享的文章。然而,埃隆·马斯克对此持保留态度,因为他担心这种强大的工具可能会被用于散播假新闻。
2020年5月,OpenAI推出了GPT-3,这是一个参数数量远超过GPT-2(1750亿个参数 vs 15亿个参数)的新模型,该模型在能力上有着显著提升。它可以接收任何文本提示,并返回一个符合模式要求的完成文本。如果给予编程示例,GPT-3甚至能创作出完整的小说或故事。
除了这些应用之外,GPT-3还可以作为搜索引擎或智慧型顾问使用,有助于解释和扩展复杂概念。不过,由于其计算需求极高(几千petaflop/s-day),而且完全版仅需几十petaflop/s-day,因此OpenAI警告称他们可能遇到了扩展到更广泛应用中的挑战。
想要了解更多关于GPT-3的信息,可以访问GitHub上的相关内容。此外,一位名为Jordan Singer的人还开发了一个Figma插件,使得人们可以用纯文字描述创建应用程序,这再次展示了这项技术多样的潜力和可能性。