2025-01-15 数码 0
据外媒MSPoweruser报道,GPT代表了一个革命性的语言模型,它由Alec Radford开发,并于2018年由OpenAI发布。该模型采用了生成式语言模型的技术,通过对大量书面材料和长篇连载文本的预训练,可以获取广泛的世界知识并处理复杂的依赖关系。
GPT-2在2019年2月宣布,它是基于800万份文档和40GB文本数据进行无监督训练的,这些数据主要来源于Reddit用户分享的文章。然而,埃隆·马斯克最初并不愿意公开发布它,因为他担心这可能被用来传播假新闻。
2020年5月,OpenAI推出了GPT-3,该模型拥有比GPT-2多两个数量级参数(1750亿个参数),显著超越了前代机器人能力。在接收任何文本提示后,GPT-3能够返回一段符合模式的完成文字。用户甚至可以通过展示几个例子来指导它编写完整文章或故事,就像下面的内容完全由GPT-3创作:
Jordan Singer还开发了一款Figma插件,让人们可以使用纯文本描述创建应用程序。此外,还有其他应用场景,如搜索引擎或神谕,用以解释和扩展复杂概念。不过,由于其计算需求极高—需要每天几千petaflop/s—OpenAI警告说,他们可能遇到了构建更强大通用人工智能所需解决的一个关键问题。尽管如此,在GitHub上仍然提供了解决方案及更多关于GPT-3信息供研究者参考。