GPT 是 Generative Pre-trained Transformer 的缩写,即"生成式预训练变换器"。它是一种基于深度学习的大型语言模型,能够理解和生成自然语言文本,广泛应用于对话、写作、翻译等人工智能领域。
/ˌdʒiː piː ˈtiː/
GPT can generate human-like text based on the input it receives.
GPT 能够根据接收到的输入生成类似人类的文本。
As GPT models have evolved from GPT-2 to GPT-4, their ability to understand context, reason across complex topics, and produce coherent long-form writing has improved dramatically.
随着 GPT 模型从 GPT-2 发展到 GPT-4,它们理解语境、跨复杂主题推理以及生成连贯长文的能力有了显著提升。
GPT 由三个英语单词的首字母组成:Generative(生成式的)、Pre-trained(预训练的)和 Transformer(变换器)。其中 Transformer 是 Google 研究团队在 2017 年论文《Attention Is All You Need》中提出的一种神经网络架构。GPT 系列模型由 OpenAI 公司开发,首个版本 GPT-1 于 2018 年发布,此后该缩写逐渐成为大型语言模型的代名词之一。
由于 GPT 是一个较新的技术术语,它尚未出现在传统文学作品中,但在以下重要文献和著作中被广泛讨论: