GPT(Generative Pre-trained Transformer,生成式预训练Transformer模型)是一种基于深度学习的语言模型,它通过预训练和微调两个阶段来实现强大的自然语言处理能力。
- 自注意力机制(Self-attention):能够关注输入序列中的重要部分,类似人类阅读时会关注关键词
- 并行处理能力:能够同时处理整个序列,类似人类阅读时会同时阅读多个句子
你可以想象一个高效的翻译团队:每个成员都能看到整个文档(全局视野)可以同时工作(并行处理)知道哪些部分更重要(注意力机制)相互之间可以交流确认(自注意力)
发展历程