2025-01-15 数码 0
据外媒MSPoweruser报道,GPT代表了一个具有前瞻性的语言模型系统,由Alec Radford所创,2018年由埃隆·马斯克的OpenAI实验室发布。该系统采用了一种独特的生成式语言模型机制,其中两个神经网络通过竞争相互完善,以预先训练在广泛的书面材料和长篇连载文本上获取世界知识并处理复杂的依赖关系。
GPT-2于2019年2月正式宣布,它是一款无监督学习的转化语言模型,在800万份文档中进行了训练,这些文档共计40GB,从Reddit社区分享而来。然而,埃隆·马斯克对其公开发布持保留态度,他担心这可能会被用于散播假新闻到社交媒体平台。
2020年5月,OpenAI推出了GPT-3,该模型参数量大幅提升至1750亿个参数,比起之前的15亿有显著增长。这一更新带来了巨大的改进,使得它能够更好地理解和响应用户提供的任何文本提示。
此外,用户可以向GPT-3提供编程指示,只需展示几个样例,就能生成完整文章或故事。例如,上述内容完全是由GPT-3自动生成。
除了这些应用之外,它还可以作为一种搜索引擎或智慧顾问服务,为人们解释复杂概念提供帮助。尽管这种技术看起来像是迈向人类水平的人工智能,但OpenAI警告称,他们面临着扩展性问题,因为GPT-3需要每天几千petaflop/s计算能力,而较旧版本只需几十petaflop/s即可完成任务。此外,还有更多关于GPT-3详情可在GitHub上查看。