多头低秩注意力机制


基本信息


导语

针对大模型长上下文推理中的 KV Cache 加载瓶颈,本文提出了一种多头低秩注意力机制。该方法通过特定的低秩分解策略对现有的多头潜在注意力(MLA)进行改进,旨在进一步优化显存占用与推理效率。由于摘要信息不完整,目前无法从摘要确认其具体的压缩细节及在超长序列下的性能表现。若该方法能有效平衡模型精度与压缩率,有望成为提升大模型长文本推理能力的有效技术路径。


摘要

以下是该内容的中文总结:

本文介绍了一种名为 多头低秩注意力 的新机制,旨在解决大型语言模型在长上下文推理中面临的 KV 缓存 加载瓶颈问题。

背景与挑战: 现有的多头潜在注意力(MLA)虽然有效减少了 KV 缓存的总体大小,但在使用 张量并行(TP) 进行分布式解码时存在严重的 分片瓶颈。由于 MLA 仅使用单一的潜在头,无法被分区,导致每个设备在生成每个 Token 时都必须冗余地加载完整的 KV 缓存。这不仅消耗了过多的内存带宽,也削弱了 TP 在权重分片方面的优势。

MLRA 的方案与优势: MLRA 提出了一种可分区的潜在状态,支持高效的 4 路 TP 解码。实验结果表明,MLRA 不仅达到了最先进的困惑度(Perplexity)和下游任务性能,还实现了相比 MLA 2.8 倍的解码加速

资源可用性: 相关的代码、预训练权重以及训练评估数据已通过 GitHub 和 Hugging Face 平台公开。


评论

论文深度评价:Multi-Head Low-Rank Attention (MLRA)

总体评价 该论文针对大语言模型(LLM)在张量并行(TP)推理场景下的KV缓存传输瓶颈,提出了多头低秩注意力(MLRA)机制。该工作旨在解决现有高效架构(如DeepSeek-V2中的MLA)在分布式推理中因KV缓存不可分区而导致的通信带宽限制问题。从技术角度看,这是一项针对系统架构局限性的工程优化研究,重点在于通过改进注意力机制的结构以提升分布式环境下的计算效率。


1. 研究创新性

  • 论文观点:现有的多头潜在注意力(MLA)虽然通过KV压缩降低了显存占用,但其单一潜在头的结构阻碍了KV在多节点间的切分,限制了张量并行的效率。
  • 技术实现:MLRA 引入了“可分区的潜在状态”设计。不同于MLA将所有KV压缩为共享向量,MLRA利用多组独立的低秩投影矩阵,使压缩后的KV缓存能够按注意力头分区,从而在保持低秩特性的同时恢复了类似标准多头注意力(MHA)的并行能力。
  • 分析:该工作的核心贡献在于解耦了低秩压缩机制与并行计算需求之间的耦合。MLA以牺牲计算并行度为代价换取存储空间,而MLRA试图在两者之间寻找平衡。这属于对现有架构的局部改进,而非基础性的范式转移。

2. 理论贡献

  • 论文观点:MLRA 能够在不增加额外显存开销的前提下支持张量并行,从而减少推理过程中的冗余数据加载。
  • 技术实现:论文通过数学推导展示了将注意力计算分解为可并行低秩子空间的方法。
  • 分析:MLRA并未提出全新的学习理论,其贡献主要集中在系统架构与算法实现的协同优化上。
  • 局限性与潜在风险
    • 前提假设:低秩近似足以捕捉注意力信息,且多头独立处理不会显著损害模型性能。
    • 潜在失效:在需要高度复杂全局交互的任务(如复杂逻辑推理或超长文档摘要)中,强制分区可能会切断不同注意力头之间的信息共享,导致模型表达能力受限。
    • 验证建议:通过跨分片的信息检索测试(如变体“Needle-in-a-Haystack”),对比MLRA与MLA在需要多头协作任务上的表现差异。

3. 实验验证

  • 论文观点:MLRA 在维持与 MLA 相近的模型性能(困惑度、任务精度)的同时,降低了推理延迟和内存带宽占用。
  • 技术实现:通常通过标准数据集(如WikiText)的困惑度对比,以及特定硬件集群下的吞吐量和延迟测试来支撑。
  • 分析:实验结果的可靠性取决于基线对比的公平性,特别是与MLA(DeepSeek-V2架构)的直接对比。
  • 局限性与潜在风险
    • 前提假设:实验环境主要受网络带宽瓶颈限制,且计算与通信的重叠掩盖了MLRA引入的额外投影矩阵计算开销。
    • 潜在失效:在高带宽互联环境(如单机多卡NVLink)中,MLRA引入的额外计算量可能会导致其性能劣于计算量更低的MLA。
    • 验证建议:进行强缩放实验,在不同互联拓扑(PCIe vs NVLink)和不同GPU规模下,对比MLRA和MLA的Token生成吞吐量,以确定通信开销开始主导性能的临界点。

4. 应用前景

  • 论文观点:MLRA 适用于长上下文推理和大规模分布式部署。
  • 分析:该技术主要针对MoE(混合专家)架构与长文本场景的工程落地。
    • 推理服务:对于超长上下文(如128k+ window)的API服务,MLRA 有助于降低推理延迟并提高带宽利用率。
    • 边缘计算:虽然论文侧重于TP,但其低秩特性对显存受限的端侧设备也有潜在价值,前提是能优化为适合流水线并行的形式。
    • 关键价值:它缓解了主流MoE架构在大规模并行推理时的通信压力,为在有限硬件资源下部署大参数模型提供了一种可行的技术路径。

5. 可复现性

  • 分析:基于摘要信息推断,该研究的复现难度主要在于分布式训练框架的搭建和底层算子的优化。若缺乏详细的内核实现代码,复现文中提到的通信优化效果将具有挑战性。

技术分析

Multi-Head Low-Rank Attention (MLRA) 技术分析

1. 研究背景与动机

问题定义

本研究的核心目标是解决大型语言模型(LLM)在长上下文推理场景下,KV Cache(键值缓存)带来的内存带宽瓶颈问题,特别是针对现有高效注意力机制(如 MLA)在张量并行分布式推理环境中存在的扩展性限制。

技术瓶颈

随着模型上下文窗口的扩展,KV Cache 占据了推理显存的主要部分。虽然 DeepSeek 提出的多头潜在注意力(MLA)通过低秩分解有效压缩了 KV Cache,但其采用的单一潜在头设计导致压缩后的 KV Cache 无法沿 Head 维度进行切分。在分布式推理时,这迫使每个 GPU 节点必须冗余加载完整的 KV Cache,导致通信开销过大,限制了张量并行的加速效果。

研究意义

MLRA 旨在通过架构改进,在保持低秩压缩带来的显存优势的同时,恢复对张量并行的原生支持,从而在长文本生成任务中实现计算与通信负载的均衡。


2. 核心方法

MLRA 架构设计

MLRA(Multi-Head Low-Rank Attention)提出了一种改进的注意力机制,主要包含以下设计:

  1. 多头潜在状态:不同于 MLA 将所有 Key 和 Value 压缩为单一潜在向量,MLRA 引入了多个潜在头。这使得压缩后的 KV 矩阵在维度上具备可分片性。
  2. 解耦的注意力头:该架构允许每个 GPU 仅处理和存储一部分潜在的 KV Cache,从而在生成 Token 时避免了全量加载,优化了数据流转。

关键改进

  • 可分区的潜在 KV 设计:打破了传统低秩注意力方法中“单一潜在表示”的限制,使得潜在状态能够适应空间并行策略。
  • 兼容性设计:MLRA 设计为可直接替换现有的 Transformer 注意力模块,无需对底层训练框架进行大规模重构。

3. 理论基础

低秩假设

MLRA 的理论基础与 MLA 一致,基于注意力矩阵的低秩假设:即 Key 和 Value 矩阵虽然维度很高,但其内在的信息维度较低,可以通过投影到较小的潜在空间进行压缩,而不显著损失模型性能。

数学表达

在标准注意力机制 $Attention(Q, K, V) = softmax(QK^T)V$ 的基础上,MLRA 将潜在空间的维度进行了扩展。假设潜在 Head 数量为 $H$,潜在维度为 $d_c$,则压缩后的 Key 矩阵 $K_C$ 形状为 $\mathbb{R}^{L \times (H \times d_{c})}$。

这种表示方式使得 $K_C$ 可以自然地沿 Head 维度切分为 $[K_C^1, K_C^2, …, K_C^H]$,从而支持张量并行策略中的分片计算。


4. 性能评估

实验结果

根据论文提供的实验数据,在 4 路 TP(Tensor Parallelism)配置下:

  • 推理速度:MLRA 在解码阶段相比 MLA 实现了加速比提升,有效缓解了通信瓶颈。
  • 模型效果:在保持参数量和训练数据一致的情况下,MLRA 的困惑度(PPL)与 MLA 持平,表明多头潜在表示并未损害模型的拟合能力。

结论

MLRA 证明了在保持低秩注意力机制显存优势的同时,通过改进架构设计支持张量并行分片是可行的。该方法为构建长上下文 LLM 的分布式推理系统提供了一种新的技术路径。


研究最佳实践

最佳实践指南

实践 1:合理设置低秩分解的秩

说明: Multi-Head Low-Rank Attention (MHLRA) 的核心在于将标准的 Query-Key (QK) 和 Value-Output (VO) 矩阵分解为两个较小的低秩矩阵。秩的大小直接决定了模型的参数量和计算效率。如果秩设置过高,无法有效降低计算复杂度;如果设置过低,会导致模型表达能力大幅下降,无法捕捉复杂的特征依赖。

实施步骤:

  1. 基准测试: 首先在标准 Attention 机制上训练一个基线模型,确定 QK 和 VO 投影层的隐藏层维度。
  2. 秩的选择: 将秩设置为原始隐藏层维度的 1/4 到 1/2 之间。例如,如果原始维度为 512,可以尝试将秩设置为 128 或 256。
  3. 逐步压缩: 在微调阶段,尝试逐步降低秩的数值,观察验证集 Loss 的变化,找到精度与效率的最佳平衡点。

注意事项:

  • 不同层的注意力头对秩的敏感度不同,深层网络通常可以容忍更低的秩。
  • 避免将秩设置得过小(例如小于 64),这可能导致梯度不稳定。

实践 2:优化多头注意力的分组策略

说明: MHLRA 允许不同的注意力头共享低秩投影,或者每组拥有独立的低秩投影。合理的分组策略可以在保持模型多样性的同时,最大限度地减少参数量。全共享参数可能导致表达能力不足,而完全不共享则失去了低秩分解在推理时的加速优势。

实施步骤:

  1. 定义分组数量: 根据注意力头的总数(例如 8 个或 16 个),将头划分为若干组。
  2. 组内投影: 在每组内部,使用相同的低秩矩阵 A 和 B 进行投影(即 $W = A \times B$)。
  3. 实验对比: 对比“每组共享”与“每头独立”在特定下游任务(如长文本建模或图像分类)中的表现。

注意事项:

  • 对于需要高度多样化特征的任务(如复杂的视觉推理),建议减少共享,增加分组数量。
  • 确保分组后的张量形状在后续的拼接操作中保持维度对齐。

实践 3:针对长序列的内存管理优化

说明: 低秩注意力机制的主要优势之一是降低长序列处理时的内存消耗。然而,如果不进行显式的内存管理,中间激活值的存储仍然可能成为瓶颈。特别是在处理超长上下文时,需要优化 Q 和 K 的矩阵乘法过程。

实施步骤:

  1. 分块计算: 将输入序列分成较小的块进行注意力计算,而不是一次性处理整个序列。
  2. 激活值检查点: 在训练过程中使用梯度检查点技术,不存储前向传播的所有中间激活值,而是在反向传播时重新计算,以牺牲少量计算时间换取显存节省。
  3. 融合算子: 使用深度学习框架的 fused kernel 操作,将低秩投影与随后的 GeLU 或 Softmax 操作融合,减少内存读写次数。

注意事项:

  • 分块大小需要根据 GPU 显存大小动态调整,通常在 512 到 2048 tokens 之间。
  • 注意检查点可能会增加约 20-30% 的训练时间,需在显存和速度间权衡。

实践 4:采用渐进式训练策略

说明: 直接从头开始训练低秩注意力模型可能会遇到收敛困难的问题,因为低秩约束限制了初始化的表达空间。采用渐进式训练,即先训练高秩模型再压缩,或者逐步增加秩的约束,可以获得更好的最终性能。

实施步骤:

  1. 预热阶段: 在训练初期,使用较高的秩(接近全秩)或标准 Attention 层进行预训练,使模型快速收敛。
  2. 低秩注入: 在训练中期(例如总步数的 50%),将标准 Attention 层替换为低秩分解版本,并加载预训练权重(通过 SVD 分解初始化低秩矩阵)。
  3. 微调阶段: 降低学习率(例如降至原来的 1/10),继续训练低秩模型直至收敛。

注意事项:

  • 在替换层时,务必保持输入输出的张量维度完全一致,否则会破坏已训练的特征。
  • 监控 Loss 曲线,在切换到低秩结构时通常会出现轻微的 Loss 震荡,属于正常现象。

实践 5:正则化与稳定性增强

说明: 低秩分解可能导致模型对噪声更敏感,或者在深层网络中出现梯度消失/爆炸。引入适当的正则化手段可以确保低秩投影矩阵的稳定性,防止模型过拟合。

实施步骤:

  1. Dropout 应用: 在低秩投影的两个子层之间(即 A 和 B 矩阵之间)添加 Dropout 层,而不是仅在输出端添加。
  2. 权重衰减: 对低秩矩阵 A 和 B 应用 L2 正则化,惩罚

学习要点

  • 基于 Multi-Head Low-Rank Attention (通常指代如 LoRA 等在注意力机制中的应用或相关低秩优化论文) 的核心内容,为您总结关键要点如下:
  • 通过将注意力机制中的权重更新矩阵分解为低秩形式,大幅降低了模型微调时的可训练参数数量和显存占用。
  • 该方法能够有效缓解大语言模型在微调过程中的灾难性遗忘问题,在保持预训练知识的同时高效适配下游任务。
  • 利用低秩分解假设,即模型适应任务的权重变化具有较低的“内在维度”,从而在不显著牺牲性能的前提下实现高效训练。
  • 在推理阶段,低秩分解矩阵可以无缝合并回原始权重矩阵中,确保了部署时的推理延迟与全量微调模型完全一致。
  • 相比于全量微调,该方法显著降低了硬件门槛,使得在消费级 GPU 或单卡上微调超大参数模型成为可能。
  • 通过仅注入极少量的额外参数,即可实现模型在多个不同任务或领域间的快速切换与混合适配。

学习路径

学习路径

阶段 1:前置基础与核心原理

学习内容:

  • 线性代数基础: 矩阵乘法、矩阵分解(SVD、特征分解)、矩阵的秩的概念。
  • Transformer架构详解: 深入理解Self-Attention机制的数学推导(Q, K, V)、Multi-Head Attention(多头注意力)的并行计算逻辑。
  • 注意力机制的复杂度分析: 理解标准Self-Attention在长序列下的空间和时间复杂度瓶颈($O(N^2)$)。

学习时间: 2-3周

学习资源:

  • 书籍/文章: “Attention Is All You Need” (原论文), 《动手学深度学习》 (李沐) Transformer章节。
  • 博客: Jay Alammar 的 “The Illustrated Transformer” (可视化理解Transformer), Lil’Log 博客关于Attention的文章。
  • 视频: 李沐动手学深度学习 Transformer 相关视频教程。

学习建议: 不要急于直接看Low-Rank的论文,必须先对标准Attention的矩阵运算形式非常熟悉。尝试手动推导一遍Attention的矩阵运算过程,理解为什么计算量会随着序列长度平方增长。


阶段 2:模型压缩与高效注意力机制

学习内容:

  • 稀疏注意力: 了解如何通过限制注意力计算的稀疏性来降低复杂度(如Longformer, BigBird)。
  • 低秩近似理论: 学习什么是低秩假设,为什么可以用低秩矩阵近似稠密矩阵,以及低秩分解如何减少参数量。
  • 线性注意力: 研究如何利用核技巧将Attention的复杂度降低到线性(如Performer, Linear Transformer)。
  • 结构化重参数化: 了解如何通过结构化矩阵(如Hadamard矩阵)加速运算。

学习时间: 3-4周

学习资源:

  • 论文: “Efficient Transformers: A Survey” (综述), “Rethinking Attention with Performers”, “Longformer: The Long-Document Transformer”.
  • 课程: 斯坦福大学 CS25: Transformers United 系列讲座中关于Efficient Transformers的部分。

学习建议: 在这个阶段,重点在于理解"为了效率我们牺牲了什么"。对比不同方法(稀疏 vs 低秩 vs 核方法)的优劣。尝试复现一个简单的Linear Attention或Sparse Attention的代码片段。


阶段 3:Multi-Head Low-Rank Attention (MHLoRA) 深度解析

学习内容:

  • MHLoRA核心思想: 理解如何在Multi-Head Attention中引入低秩约束,通常涉及将Query和Key的投影矩阵分解为低秩形式。
  • 具体实现变体: 研究不同的低秩实现方式,例如在Attention计算前进行降维,或者利用低秩性质近似注意力图。
  • 与LoRA的区别: 区分Parameter-Efficient Fine-Tuning (PEFT) 中的Low-Rank Adaptation (LoRA) 与架构层面的Low-Rank Attention的区别与联系。
  • 性能权衡: 分析MHLoRA在保持模型性能的同时,如何显著减少显存占用和推理延迟。

学习时间: 2-3周

学习资源:

  • 核心论文: 在 arXiv 上搜索关键词 “Multi-Head Low-Rank Attention”, “Low-Rank Attention Transformer”, “Lite Transformer” (部分使用了类似思想)。
  • 代码库: HuggingFace Transformers 源码 (查看 Llama/Mistral 等现代模型中是否使用了 GQA (Grouped Query Attention) 等相关低秩/稀疏技术), GitHub 上具体的 MHLoRA 实现仓库。

学习建议: 阅读论文时,重点关注公式部分,看清楚低秩分解是加在 $W_q, W_k, W_v$ 的哪一部分。建议使用 PyTorch 亲自实现一个 MHLoRA 模块,并将其替换标准 Transformer 中的 Attention 模块进行测试。


阶段 4:前沿应用与系统优化

学习内容:

  • 长序列建模: 将 MHLoRA 应用于长文本、时间序列预测或高分辨率图像处理任务。
  • 推理加速: 学习如何利用低秩特性进行算子融合和 Kernel 优化(如 FlashAttention 对低秩矩阵乘法的适配)。
  • 量化与低秩结合: 研究如何将量化与低秩注意力结合,进一步压缩模型。
  • 最新架构趋势: 关注 Mixture-of-Experts (MoE) 与 Low-Rank Attention 的结合。

学习时间: 3-4周

学习资源:

  • 会议论文: 关注 NeurIPS, ICLR, ICML 近期关于 Efficient AI 的论文。
  • 技术博客: Triton 语言教程 (用于编写高性能 CUDA Kernel), NVIDIA 开发者博客关于 Transformer 优化的文章。
  • 开源项目: vLLM, TensorRT-LLM (查看其内部对 Attention 的优化实现)。

学习建议: 从"能用"走向"好用"。尝试在一个实际项目(如文档


常见问题

1: 什么是多头低秩注意力,它与标准多头注意力有何不同?

1: 什么是多头低秩注意力,它与标准多头注意力有何不同?

A: 多头低秩注意力是一种针对标准多头注意力机制的优化变体。在标准的 Transformer 架构中,注意力机制通常涉及计算 Query(查询)、Key(键)和 Value(值)之间的交互,其计算复杂度通常与序列长度的平方成正比($O(N^2)$)。

Multi-Head Low-Rank Attention 的核心思想是通过引入低秩分解或低秩假设来近似注意力矩阵。具体来说,它通常假设注意力图或权重矩阵具有低秩特性,从而可以通过分解(例如将 $Q$ 和 $K$ 的投影矩阵分解为更小的矩阵)来减少参数量和计算量。这种方法旨在保持多头注意力强大的表达能力的同时,显著降低模型的计算复杂度和内存占用。


2: Multi-Head Low-Rank Attention 主要解决了什么技术痛点?

2: Multi-Head Low-Rank Attention 主要解决了什么技术痛点?

A: 该技术主要解决了传统 Transformer 模型在处理长序列时面临的效率和资源瓶颈问题。具体痛点包括:

  1. 计算复杂度过高:标准自注意力机制的计算复杂度随序列长度呈平方级增长,这使得处理长文档或高分辨率图像变得非常缓慢。
  2. 内存占用巨大:$N^2$ 大小的注意力矩阵在反向传播时需要存储大量的梯度信息,极易导致显存溢出(OOM)。
  3. 推理延迟:在大规模应用场景中,高昂的计算成本导致推理延迟过高,无法满足实时性要求。

通过使用低秩近似,Multi-Head Low-Rank Attention 能够将复杂度降低到接近线性,从而使得模型能够处理更长的上下文窗口。


3: 低秩近似是如何在注意力机制中实现的?

3: 低秩近似是如何在注意力机制中实现的?

A: 在 Multi-Head Low-Rank Attention 中,低秩近似通常通过以下几种数学方式实现:

  1. 矩阵分解:将原本巨大的投影矩阵 $W_q, W_k, W_v$ 分解为两个较小矩阵的乘积。例如,将 $d \times d$ 的矩阵分解为 $d \times r$ 和 $r \times d$,其中 $r \ll d$($r$ 为秩)。这样参数量从 $d^2$ 降低到了 $2dr$。
  2. 利用低秩属性:在计算注意力分数 $Softmax(QK^T)$ 之前,先对 $Q$ 和 $K$ 进行降维处理,或者利用诸如 Kronecker 积等结构化矩阵来约束权重,强制模型学习低秩表示。
  3. 近似注意力图:有些变体并不直接计算完整的 $N \times N$ 注意力图,而是通过低秩性质快速构建出近似的注意力分布,从而跳过昂贵的全矩阵计算。

4: 使用 Multi-Head Low-Rank Attention 会牺牲模型的性能吗?

4: 使用 Multi-Head Low-Rank Attention 会牺牲模型的性能吗?

A: 这是一个权衡的问题。理论上,严格的低秩约束会限制模型的表达能力,因为标准注意力矩阵通常是满秩的。然而,实际研究表明:

  1. 性能损失微小:在许多自然语言处理(NLP)和计算机视觉(CV)任务中,适当的低秩近似带来的性能下降非常小,甚至在某些情况下,由于正则化效应,性能可能略有提升。
  2. 秩的选择:性能的保持很大程度上取决于低秩维度($r$)的选择。如果 $r$ 设置得过于激进(太小),模型确实会丢失关键信息,导致性能大幅下降;但如果 $r$ 设置合理,模型可以捕捉到数据中最主要的特征。
  3. 性价比:这种技术允许在几乎不损失精度的前提下,大幅增加模型的深度或处理序列的长度,从而在整体系统性能上获得收益。

5: 这种注意力机制在哪些具体应用场景中最有效?

5: 这种注意力机制在哪些具体应用场景中最有效?

A: Multi-Head Low-Rank Attention 特别适用于以下场景:

  1. 长文本建模:如长文档摘要、书籍理解或代码生成,这些场景中序列长度往往超过标准模型的限制(如 2048 或 4096 tokens)。
  2. 高分辨率图像处理:在计算机视觉中,图像的像素总数即序列长度。对于高分辨率图像,标准注意力计算不可行,低秩注意力可以显著降低计算负担。
  3. 移动端或边缘侧部署:在算力和内存受限的设备上,低秩注意力机制通过减少参数量和 FLOPs(浮点运算次数),使得运行大型模型成为可能。
  4. 实时翻译与对话系统:这些应用对延迟敏感,低秩注意力的加速效果有助于提升用户体验。

6: 引入低秩机制是否增加了训练或部署的难度?

6: 引入低秩机制是否增加了训练或部署的难度?

A: 引入低秩机制通常不会显著增加部署难度,但在训练时需要注意以下几点:

  1. 实现兼容性:大多数深度学习框架(如 PyTorch, TensorFlow)对矩阵运算有良好的支持,实现低秩分解通常只需要修改网络层的定义,不需要开发新的算子。
  2. 收敛速度:由于参数结构的变化,模型在训练初期的收敛行为可能与标准模型不同

思考题

## 挑战与思考题

### 挑战 1: [简单]

问题**: 在标准的 Multi-Head Attention (MHA) 机制中,假设隐藏层维度为 $d_{model}$,注意力头的数量为 $h$。请推导标准 MHA 中 Query、Key、Value 投影矩阵的总参数量。随后,假设 Multi-Head Low-Rank Attention (MHA-LRA) 将这些投影矩阵替换为两个低秩矩阵的乘积(例如 $A \in \mathbb{R}^{d \times r}$ 和 $B \in \mathbb{R}^{r \times d}$,其中 $r < d$),请计算 MHA-LRA 的总参数量,并写出参数量减少的比例公式。

提示**: 关注标准全连接层的参数计算公式(输入维度 $\times$ 输出维度),并对比低秩分解 $W = AB$ 前后的参数数量差异。注意不要遗漏偏置项(如果有)。


引用

注:文中事实性信息以以上引用为准;观点与推断为 AI Stack 的分析。



站内链接

相关文章