2025-01-15 手机 0
据外媒MSPoweruser报道,GPT代表了一个革命性的语言模型,它由Alec Radford开发,并于2018年由OpenAI发布。该模型采用了生成式语言模型的技术,这涉及到两个神经网络之间的竞争与合作,以此来完善它们对不同文本材料和长篇连载小说的理解能力。通过对大量书面材料和长篇小说进行预训练,GPT能够获取世界知识并处理复杂的依赖关系。
GPT-2在2019年2月宣布,它是通过无监督学习在800万份文档上训练出来的,这些文档共占用40GB存储空间,其中包括Reddit用户分享的文章。然而,埃隆·马斯克表示出放弃发布它,因为他担忧它可能被用于向社交媒体发送假新闻。
2020年5月,OpenAI推出了更为先进的人工智能系统——GPT-3。这一版本拥有比GPT-2多两个数量级参数(1750亿个参数),体现了巨大的改进。在接收任何文本提示后,GPT-3能够返回相应内容,以匹配用户提供的模式。例如,如果用户展示几个例子给它编程,它就能创作一篇完整的小说或故事。
除了编程应用之外,人们还可以将其作为搜索引擎或智慧指导工具使用,即使是解释和扩展复杂概念也能轻松实现。不过,由于这项技术看似会直接导致一种可以像人类一样理解、推理和交流的人工智能,而这种人工智能可能会遇到根本性扩展问题——即需要数千petaflop每天计算量,而相比之下,GPT-2只需几十petaflop每天—OpenAI提醒大家要谨慎对待这一新技术。在GitHub上有更多关于GPT-3深入信息可供探索。