2025-01-15 手机 0
据外媒MSPoweruser报道,GPT代表了一个先进的语言模型系统,由Alec Radford开发,并于2018年由埃隆·马斯克支持的OpenAI实验室发布。该系统采用了两种竞争合作的神经网络,通过对大量书面材料和长篇连载文本进行预训练,可以获取广泛知识并处理复杂的依赖关系。
2019年2月,OpenAI宣布推出GPT-2,这是一个无监督的转换型语言模型,它在800万份文档上进行了40GB规模的大规模训练,其中包括Reddit用户分享的文章。然而,埃隆·马斯克对于公开此技术持有保留态度,因为他担忧它可能被用于散播虚假新闻。
2020年5月,OpenAI又推出了GPT-3,这个模型参数量比GPT-2大多了一倍(1750亿个参数),显著提升了性能。它能够接收任何文本提示,然后生成符合模式要求的文本。如果只给予一些例子示范,即可编写完整的小说或文章。
除了编程应用外,GPT-3还可以作为搜索引擎或智者服务,用以解释复杂概念。此技术看似带来了理解、推理和对话能力,但OpenAI警告称,他们遇到了扩展性挑战:尽管仅需几千petaflop/s-day计算量,就能实现与人类水平相当的情境,而相似的GPT-2仅需要几十petaflop/s-day。
更多关于GPT-3技术信息可以在GitHub上找到。