2025-01-15 数码 0
据外媒MSPoweruser报道,GPT代表了Generative Pre-training Transformer的概念,是由Alec Radford所创造的语言模型,2018年由埃隆·马斯克领导的人工智能研究实验室OpenAI发布。这种模型采用了一种生成式语言处理机制(两个神经网络通过竞争相互完善),通过对广泛的书面材料和长篇连载文本进行预训练,可以学习世界知识并理解长期依赖关系。
GPT-2于2019年2月宣布,它是一种无监督的转换性语言模型,其训练数据包括800万份文档共计40GB文本,这些数据来自Reddit用户分享的文章。然而,埃隆·马斯克对其公开使用持保留态度,因为他担心它可能被用于散播虚假新闻。
2020年5月,OpenAI推出了GPT-3,这个模型在参数数量上大幅增加(1750亿个参数与15亿个参数相比),实现了显著提升。在接收任何文本提示后,GPT-3能够返回一个完成后的文本,以模仿用户提供的模式。用户甚至可以仅通过展示几个例子,就能让它编写一篇完整的小说或故事。
除了编程应用外,GPT-3还被用作搜索引擎或智慧指南,并且有能力解释复杂概念。此外,有人认为这种技术可能会带来一种类似人类理解、推理和交流能力的人工智能,但OpenAI警告称他们正在遇到扩展性的挑战:尽管需要几千petaflop/s-day计算量来运行,而完整版本GPT-2只需几十petaflop/s-day。这一切信息都可在GitHub上进一步探索有关GPT-3的情况。
上一篇:三人同行的C之旅