2025-01-15 数码 0
据外媒MSPoweruser报道,GPT代表了一个先进的语言模型系统,由Alec Radford所创,并于2018年由埃隆·马斯克的OpenAI实验室发布。该系统采用了两种神经网络通过竞争互相完善的生成式语言模型,通过对大量书面材料和长篇连载文本进行预训练,使其能够获取世界知识并处理复杂的依赖关系。
GPT-2在2019年2月宣布,它是一款无监督转化语言模型,在800万份文档上经过训练,这些文档共计40GB,来源于Reddit用户分享的文章。然而,埃隆·马斯克对其发布表示犹豫,因为他担忧它可能被用于向社交媒体发送假新闻。
2020年5月,OpenAI推出了GPT-3,这个模型参数量大幅增加到1750亿(与GPT-2中的15亿参数相比),取得了显著提升。它可以接受任何文本提示,并返回一段符合模式的完成文本。如果你给它编程,只需展示几个例子,它就能提供完整的小说或故事。
除了编程应用外,GPT-3还可作为搜索引擎或智慧指南使用,以解释和扩展复杂概念。不过,其开发团队警告称,他们遇到了一个基本挑战:即使是最先进的人工智能也需要庞大的计算资源来实现,如几千petaflop/s-day,而目前仅有几十petaflop/s-day。这一点对于追求更高水平自主人工智能发展来说是一个巨大的障碍。
想要了解更多关于GPT-3的事,可以访问GitHub上的相关内容。在这个快速变化的人工智能领域,每一次创新都带来了新的可能性和挑战。