2025-01-15 数码 0
据外媒MSPoweruser报道,GPT代表了一个先进的语言模型系统,由Alec Radford开发,并于2018年由埃隆·马斯克创立的人工智能实验室OpenAI推出。该系统采用了一种称为生成式语言模型的技术,它通过两个神经网络之间的竞争来相互完善,从而能够理解和处理复杂的长篇文本。
GPT-2在2019年2月宣布,是一款无监督学习的转化语言模型,训练数据包括800万份文档,总计40GB文字,这些数据来自Reddit用户分享的文章。然而,埃隆·马斯克对其发布持保留态度,因为他担忧它可能被用于散播虚假信息。
2020年5月,OpenAI推出了GPT-3,这一新版本具有远超前代(即GPT-2)的参数数量(1750亿个参数与15亿个参数相比),并实现了显著提升。在接受任何文本提示后,该系统能够返回一段基于这些提示编写的完整文本。这意味着,只要向它提供一些示例,它就能生成一篇全新的文章或故事,就像下面这段完全由GPT-3自动生成:
Jordan Singer还开发了一个Figma插件,让人们可以使用简单描述来创建应用程序。此外,该技术也可以用作一种搜索引擎或神秘解答工具,即使是解释复杂概念也毫不费力。不过尽管这种方法看起来似乎已经有能力创造出与人类相当水平的人工智能,但OpenAI警告说,他们遇到了扩展问题。具体来说,虽然完整版GPT需要几十petaflop/s-day计算量,而GPT-3则需要几千petaflop/s-day才能运行,因此他们面临着如何有效管理这个庞大计算需求的问题。
对于想要了解更多关于GPT-3细节的地方,可以访问GitHub获取最新信息。