Transformer architecture — Transformer 架构
Transformer 架构是一种神经网络架构,由谷歌研究人员在 2017 年的论文《Attention Is All You Need》中提出[1]。它彻底改变了自然语言处理 (NLP) 领域,并成为大多数现代大型语言模型 (LLM) 的基础,例如 BERT、GPT 和 Gemini。Transformer 的关键创新是自注意力 (self‑attention) 机制,该机制允许模型权衡输入数据不同部分的重要性,并并行处理序列,从而摒弃了 RNN 和 LSTM 所特有的循环结构。
历史背景与前提
在 2017 年之前,处理文本等序列数据的主流架构是循环神经网络 (RNN) 及其改进版本——长短期记忆网络 (LSTM)。
Transformer 解决的 RNN/LSTM 问题
- 顺序处理的局限性: RNN 和 LSTM 逐个 token 处理数据,这排除了序列内的并行计算,减慢了在大量数据上的训练速度。
- 梯度消失与梯度爆炸问题: 在长序列中,通过多个时间步反向传播的梯度可能会衰减或激增,从而难以学习长期依赖关系。
- 长期依赖: 序列开头的信息可能会在传播到末尾时丢失。
Transformer 的方法是完全摒弃循环结构,转而采用注意力机制。它确保了任意位置之间的依赖路径长度恒为常量 (),这使得对远距离依赖的建模更加容易,尽管自注意力的基础实现具有关于序列长度的二次方计算复杂度 ()[1][2]。梯度消失/爆炸问题并非“消失”,而是通过残差连接、LayerNorm 和训练策略得以缓解;在现代实现中,通常采用Pre‑LayerNorm (Pre‑LN) 方案,因为它在训练时更稳定[3]。
架构与关键组件
原始的 Transformer 架构由两个主要部分组成:编码器 (encoder) 和 解码器 (decoder)。两个组件都是由 N 个相同层堆叠而成(在原始论文中 )[1]。
- 编码器层结构: (1) 多头自注意力 (MHA),(2) 按位置前馈网络 (FFN);每个子层都包裹着一个残差连接和层归一化 (LayerNorm)[1]。
- 解码器层结构: (1) 掩码自注意力(因果掩码禁止访问未来的位置),(2) 对编码器输出的交叉注意力 (cross‑attention),(3) FFN——同样带有残差连接和层归一化[1]。
Attention mechanism and Self-Attention - 注意力机制与自注意力
注意力机制计算值向量 (Value) 的加权和,其中权重由键 (Key) 与查询 (Query) 的兼容性程度决定。Transformer 使用的是缩放点积注意力 (Scaled Dot-Product Attention):
其中 是键/查询的维度;除以 是为了防止 softmax 函数饱和[1]。当 、 和 由同一序列生成时,该机制称为自注意力 (self‑attention)。
Multi-Head Attention - 多头注意力
该机制不使用单一一组矩阵 ,而是采用 个并行的“头”,每个头将 投影到较低维度的子空间中,独立计算注意力,然后将结果拼接并再次投影[1]:
用于加速推理的变体:
- MQA (Multi‑Query Attention): 所有头共享同一对键/值 → 在解码过程中显著减少 KV 缓存的大小和带宽需求[4]。
- GQA (Grouped‑Query Attention): MHA 和 MQA 之间的折衷方案——几组头共享 K/V;在接近 MQA 的速度下,其质量接近 MHA[5]。
Positional Encoding - 位置编码
由于自注意力机制对 token 的顺序不敏感,因此需要在输入嵌入中加入位置编码。
- 原始的正弦位置编码 (PE),源自[1]:
- 现代的相对/旋转式变体:
Position-wise FFN, Residuals, and Normalization - 按位置前馈网络、残差连接与归一化
除了注意力子层,编码器和解码器的每一层还包含一个按位置前馈网络 (FFN):
每个子层的周围都使用了残差连接 (residual connections)和层归一化 (Layer Normalization):。原始论文中采用的是Post‑LN方案[1]; 现代 LLM 中常使用Pre‑LN,因为它能提供更好的训练稳定性,并减少对长时间预热 (warm-up) 的依赖[3]。
演进与现代变体
早期基于循环神经网络 (RNN) 及其高级变体(如 LSTM)的方法是按顺序逐个 token 处理文本的。虽然这种方法直观上符合语言结构,但它也带来了显著的局限性:难以进行并行计算,并且难以捕捉文本中相距较远的元素之间的依赖关系。2017年,一组来自谷歌的研究人员发表了一篇题为《Attention Is All You Need》的论文。他们在文中描述了一种全新的架构——“Transformer”。该模型首次完全摒弃了循环神经网络,并以“注意力”(attention) 机制取而代之。其核心创新在于,注意力机制允许 Transformer 在生成输出序列中的某个词时,评估输入序列中每个词的重要性。同时,模型能够并行处理所有词。这种并行处理能力使得在海量数据上训练规模大得多的模型成为可能。最终催生了现代的大型语言模型 (LLM)。
Transformer 架构为众多模型奠定了基础,这些模型大致可分为三类。
1. 仅编码器模型 (Encoder-only)
- 示例: BERT (及 RoBERTa, ALBERT)[8]。
- 原理: 通过带有双向上下文的掩码语言建模 (MLM)任务进行预训练。
- 应用: 理解类任务(如分类、命名实体识别 NER 等)。
2. 仅解码器模型 (Decoder-only)
- 示例: GPT 系列 (GPT‑1/2/3)[9][10]、LLaMA[11]、Claude。
- 原理: 因果语言建模 (CLM)——预测下一个 token;注意力机制应用了因果掩码[1]。
- 应用: 文本生成、对话、代码生成。
3. 编码器-解码器模型 (Encoder-decoder)
- 示例: 原始 Transformer、T5、BART[1][12]。
- 原理: 编码器构建输入的表示,解码器生成输出,并利用交叉注意力机制关注编码器的特征[1]。
- 应用: seq2seq 任务(如翻译、摘要等)。
4. 多模态与替代架构
- Vision Transformer (ViT)——将图像分割成块(patch)以适应 Transformer 架构[13];Swin Transformer——一种采用“移位窗口”(shifted windows) 的分层模型[14]。
- 长序列替代方案:
训练与优化技术
Transformer 的效率与训练技术和基础设施密切相关。
- 预训练策略: CLM 和 MLM;以及对比学习和去噪目标(如 ELECTRA, T5)[12]。
- 微调技术:
- 全量微调所有参数。
- 参数高效微调 (PEFT): LoRA 在冻结基础模型权重的同时,引入低秩适配器[18]。
- 行为对齐: RLHF——基于人类反馈的强化学习[19]。
- 推理系统优化: PagedAttention/vLLM 通过对 KV 缓存进行分页管理来提高服务吞吐量;在处理长序列和大批量数据时尤其有效[20]。
链接
参考文献
- Vaswani, A., Shazeer, N., Parmar, N., et al. (2017). Attention Is All You Need. NeurIPS. arXiv:1706.03762.
- Devlin, J., Chang, M.‑W., Lee, K., Toutanova, K. (2019). BERT: Pre‑training of Deep Bidirectional Transformers for Language Understanding. arXiv:1810.04805.
- Radford, A., Narasimhan, K., Salimans, T., Sutskever, I. (2018). Improving Language Understanding by Generative Pre‑Training. OpenAI Technical Report.
- Brown, T. B., Mann, B., Ryder, N., et al. (2020). Language Models Are Few‑Shot Learners. NeurIPS. arXiv:2005.14165.
- Raffel, C., Shazeer, N., Roberts, A., et al. (2019). Exploring the Limits of Transfer Learning with a Unified Text‑to‑Text Transformer. arXiv:1910.10683.
- Dosovitskiy, A., Beyer, L., Kolesnikov, A., et al. (2020). An Image is Worth 16×16 Words: Transformers for Image Recognition at Scale. arXiv:2010.11929.
- Liu, Z., Lin, Y., Cao, Y., et al. (2021). Swin Transformer: Hierarchical Vision Transformer using Shifted Windows. arXiv:2103.14030.
- Tay, Y., Dehghani, M., Bahri, D., Metzler, D. (2020). Efficient Transformers: A Survey. arXiv:2009.06732.
- Xiong, R., Yang, Y., He, D., et al. (2020). On Layer Normalization in the Transformer Architecture. ICML. arXiv:2002.04745.
- Su, J., Lu, Y., Pan, S., et al. (2021). RoFormer: Rotary Position Embedding. arXiv:2104.09864.
- Press, O., Smith, N. A., Lewis, M. (2021). Train Short, Test Long: Attention with Linear Biases (ALiBi). arXiv:2108.12409.
- Shazeer, N. (2019). Fast Transformer Decoding: One Write‑Head is All You Need (MQA). arXiv:1911.02150.
- Ainslie, J., Lee‑Thorp, J., de Jong, M., et al. (2023). GQA: Training Generalized Multi‑Query Transformer Models from Multi‑Head Checkpoints. EMNLP. arXiv:2305.13245.
- Kwon, W., Li, Z., Zhuang, S., et al. (2023). Efficient Memory Management for LLM Serving with PagedAttention (vLLM). arXiv:2309.06180.
- Touvron, H., Lavril, T., Izacard, G., et al. (2023). LLaMA: Open and Efficient Foundation Language Models. arXiv:2302.13971.
- Gu, A., Dao, T. (2023). Mamba: Linear‑Time Sequence Modeling with Selective State Spaces. arXiv:2312.00752.
- Peng, B., et al. (2023). RWKV: Reinventing RNNs for the Transformer Era. arXiv:2305.13048.
- Lieber, O., Lenz, B., Bata, H., et al. (2024). Jamba: A Hybrid Transformer‑Mamba Language Model. arXiv:2403.19887.
- Hu, E. J., Shen, Y., Wallis, P., et al. (2021). LoRA: Low‑Rank Adaptation of Large Language Models. arXiv:2106.09685.
- Ouyang, L., Wu, J., Jiang, X., et al. (2022). Training language models to follow instructions with human feedback. OpenReview.
注释
- ↑ 1.00 1.01 1.02 1.03 1.04 1.05 1.06 1.07 1.08 1.09 1.10 1.11 Vaswani, A., Shazeer, N., Parmar, N., et al. (2017). Attention Is All You Need. NeurIPS. arXiv:1706.03762.
- ↑ Tay, Y., Dehghani, M., Bahri, D., Metzler, D. (2020). Efficient Transformers: A Survey. arXiv:2009.06732.
- ↑ 3.0 3.1 Xiong, R., Yang, Y., He, D., et al. (2020). On Layer Normalization in the Transformer Architecture. ICML. arXiv:2002.04745.
- ↑ Shazeer, N. (2019). Fast Transformer Decoding: One Write‑Head is All You Need. arXiv:1911.02150.
- ↑ Ainslie, J., Lee‑Thorp, J., de Jong, M., et al. (2023). GQA: Training Generalized Multi‑Query Transformer Models from Multi‑Head Checkpoints. EMNLP. arXiv:2305.13245.
- ↑ Su, J., Lu, Y., Pan, S., et al. (2021). RoFormer: Rotary Position Embedding. arXiv:2104.09864.
- ↑ Press, O., Smith, N. A., Lewis, M. (2021). Train Short, Test Long: Attention with Linear Biases (ALiBi). arXiv:2108.12409.
- ↑ Devlin, J., Chang, M.‑W., Lee, K., Toutanova, K. (2019). BERT: Pre‑training of Deep Bidirectional Transformers for Language Understanding. arXiv:1810.04805.
- ↑ Radford, A., Narasimhan, K., Salimans, T., Sutskever, I. (2018). Improving Language Understanding by Generative Pre‑Training. OpenAI.
- ↑ Brown, T. B., Mann, B., Ryder, N., et al. (2020). Language Models Are Few‑Shot Learners. NeurIPS. arXiv:2005.14165.
- ↑ Touvron, H., Lavril, T., Izacard, G., et al. (2023). LLaMA: Open and Efficient Foundation Language Models. arXiv:2302.13971.
- ↑ 12.0 12.1 Raffel, C., Shazeer, N., Roberts, A., et al. (2019). Exploring the Limits of Transfer Learning with a Unified Text‑to‑Text Transformer. JMLR. arXiv:1910.10683.
- ↑ Dosovitskiy, A., Beyer, L., Kolesnikov, A., et al. (2020). An Image is Worth 16×16 Words: Transformers for Image Recognition at Scale. ICLR. arXiv:2010.11929.
- ↑ Liu, Z., Lin, Y., Cao, Y., et al. (2021). Swin Transformer: Hierarchical Vision Transformer using Shifted Windows. ICCV. arXiv:2103.14030.
- ↑ Gu, A., Dao, T. (2023). Mamba: Linear‑Time Sequence Modeling with Selective State Spaces. arXiv:2312.00752.
- ↑ Peng, B., et al. (2023). RWKV: Reinventing RNNs for the Transformer Era. arXiv:2305.13048.
- ↑ Lieber, O., Lenz, B., Bata, H., et al. (2024). Jamba: A Hybrid Transformer‑Mamba Language Model. arXiv:2403.19887.
- ↑ Hu, E. J., Shen, Y., Wallis, P., et al. (2021). LoRA: Low‑Rank Adaptation of Large Language Models. arXiv:2106.09685.
- ↑ Ouyang, L., Wu, J., Jiang, X., et al. (2022). Training language models to follow instructions with human feedback. OpenReview.
- ↑ Kwon, W., Li, Z., Zhuang, S., et al. (2023). Efficient Memory Management for LLM Serving with PagedAttention. arXiv:2309.06180.