2025-01-15 数码 0
据外媒MSPoweruser报道,GPT代表了一个先进的语言模型系统,由Alec Radford设计,并于2018年由埃隆·马斯克领导的OpenAI研究实验室发布。该系统采用了一种独特的生成式语言模型技术,它通过训练在庞大的书面材料和长篇连载文本上,能够理解世界知识并处理复杂的依赖关系。
GPT-2在2019年2月宣布,其训练数据包括800万份文档,总共40GB的大量文本,这些数据来自Reddit用户分享的文章。在发布之前,埃隆·马斯克对此表示担忧,因为他认为这可能会被用来制造假新闻。
2020年5月,OpenAI推出了GPT-3,该模型拥有比GPT-2多几个数量级参数(1750亿个参数对比15亿),显著提高了其性能。无论是编程、创作故事还是解释复杂概念,只需向它提供一些示例,它都能输出高质量的内容。
除了这些应用之外,人们还可以将其作为一种搜索引擎或神谕使用。尽管这种技术看似接近开发出能像人类一样理解、推理和交流的人工智能,但OpenAI警告称,他们已经遇到了一系列扩展挑战。例如,GPT-3需要极高计算能力,即几千petaflop/s-day,而相较之下完整的GPT-2只需要几十petaflop/s-day。此外,还有更多关于GPT-3的问题待解决,可以在GitHub上找到相关信息。