GPT-3指的是生成型预训练变换模型3(英语:Generative Pre-trained Transformer 3,简称GPT-3)是一个自回归语言模型,目的是为了使用深度学习生成人类可以理解的自然语言[1]。GPT-3是由在旧金山的人工智能公司OpenAI训练与开发,模型设计基于谷歌开发的变换语言模型。GPT-3的神经网路包含1750亿个参数,为有史以来参数最多的神经网路模型[2]。OpenAI于2020年5月发表GPT-3的论文,在次月为少量公司与开发人团释出应用程式介面的测试版。微软在2020年9月22日宣布取得了GPT-3的独家授权。GPT-3 这个模型是当前最大的语言处理模型之一,神经网路包含1750亿个参数,为有史以来参数最多的神经网路模型。