2025-01-15 数码 0
据外媒MSPoweruser报道,GPT代表了一个先进的语言模型系统,由Alec Radford开发,并于2018年由埃隆·马斯克的OpenAI研究实验室发布。该系统采用了两种神经网络通过竞争互相完善的生成式语言模型,通过对大量书面材料和长篇连载文本进行预训练,它能够获取世界知识并处理复杂的依赖关系。
GPT-2在2019年2月宣布,是一种无监督转化语言模型,其训练数据包括800万份文章,总计40GB文本,这些文章来源于Reddit用户分享的内容。然而,埃隆·马斯克出于担忧它可能被用于向社交媒体发送假新闻而不愿意公开发布此技术。
2020年5月,OpenAI推出了GPT-3,该模型参数量比GPT-2多两个数量级(1750亿个参数对15亿个参数),其性能也得到了显著提升。在接收任何文本提示后,该模型将返回一段尝试匹配用户模式的完成文本。用户可以向它提供编程示例,它会生成完整的文章或故事,就像下面的文字完全由GPT-3创作的一样:
Jordan Singer还创建了一款Figma插件,使人们可以使用纯文本描述来设计应用程序。此外,还有其他用途,比如作为搜索引擎或灵感源头,以及解释和扩展复杂概念。
尽管这种方法看似能直接导致人类水平的人工智能,但具有理解、推理和对话能力,但OpenAI警告称,他们遇到了一项基础挑战:GPT-3需要每天数千petaflop/s计算资源,而完整版GPT-2仅需几十petaflop/s。想要了解更多关于GPT-3的情况,可以访问GitHub上的相关资料。