2025-01-15 数码 0
据外媒MSPoweruser报道,GPT代表了一个具有前瞻性的语言模型系统,由Alec Radford所创,2018年由埃隆·马斯克的OpenAI实验室发布。该系统采用了一种独特的生成式语言模型(两个神经网络通过竞争相互完善),通过对各种书面材料集和长篇连载文本进行预训练,可以获取世界知识并处理复杂的长程依赖关系。
GPT-2于2019年2月宣布,它是一个无监督的转化语言模型,在800万份文档上进行了训练,这些文档共计40GB,来源于Reddit用户提交分享的文章。然而,埃隆·马斯克并不愿意公开此技术,因为他担心它可能被用于向社交媒体发送假新闻。
2020年5月,OpenAI推出了GPT-3,该模型包含参数量比GPT-2高出几个数量级(1750亿个参数与15亿个参数相比),其性能也得到了显著提升。
只要给予任何提示,GPT-3都能返回一段完成的文本,以匹配用户提供的模式。用户甚至可以通过展示几个希望它实现的事例来编程它,让它为他们提供一篇完整的小说或故事,如下面的文字完全是由GPT-3自动生成:
Jordan Singer还开发了一个Figma插件,使人们能够使用纯文本描述创建应用程序。
其他潜在应用包括作为搜索引擎或智者,其功能还能用来解释和扩展复杂概念。
尽管这种方法看起来可能会直接导致一种能够像人类一样理解、推理和对话的人工智能,但OpenAI警告称,他们可能已经遇到了一系列根本性的扩展挑战:GPT-3需要几千petaflop/s-day计算能力,而完整版GPT仅需几十petaflop/s-day。
更多关于GPT-3信息可在GitHub上找到。