2025-01-15 数码 0
据外媒MSPoweruser报道,GPT代表了一个先进的语言模型系统,由Alec Radford设计,并于2018年由埃隆·马斯克的OpenAI实验室推出。该系统采用了两种神经网络相互竞争和完善的生成式语言模型,通过对大量书面材料和长篇连载文本进行预训练,使其能够理解世界知识并处理复杂的依赖关系。
GPT-2在2019年2月宣布,它是一款无监督转化语言模型,在800万份文档上经过训练,这些文档共计40GB,来源于Reddit用户分享的文章。然而,埃隆·马斯克对此持保留态度,因为他担忧这种技术可能被用于传播假新闻。
2020年5月,OpenAI发布了GPT-3,该模型拥有比GPT-2多几个数量级参数(1750亿个参数vs 15亿个参数),显著提升了性能。它能够根据任何给定的文本提示返回相应的完成内容,以匹配用户提供的模式。用户可以仅需展示几例希望它模仿的情况下,它就能生成完整的小说或文章。
除了编程应用之外,GPT-3还被用作搜索引擎、智慧顾问甚至概念解释与扩展工具。在看似实现人类智能水平的人工智能方法中,这种技术引发了一系列讨论,但OpenAI警告称,他们已经遇到了一项关键挑战:尽管需要极高计算能力,即每天数千petaflop/s,而完整版GPT-2仅需几十petaflop/s即可完成任务。
对于想要了解更多关于GPT-3信息的人们,可以访问GitHub以获取详细资料。此外,一位开发者Jordan Singer还创造了一款Figma插件,让人们使用纯文字描述来构建应用程序。这一革新不仅限于编程领域,还有广阔空间等待探索,无疑将重塑我们对工作与生活方式的一切认知。