凯时娱乐代理申请

微软提出模型稀疏化新方法:单 GPU 就能压缩模型性能不变参数少

分类:凯时娱乐代理申请 作者:admin 来源:未知 发布:2024-02-23 19:41

  大语言模型之大,成本之高,让模型的稀疏化变得至关重要。众所周知,对于大语言模型来说,规模越大凯时娱乐代理申请,所需的算力越大凯时娱乐代理申请,自然占用的资源也就越多。研究人员于是乎把目光转到了这片领域,即模型的稀疏化(Sparsification)。

  今天要介绍的 SliceGPT,则可以实现模型的事后稀疏。也就是说,在一个模型训练完了以后再进行稀疏化操作。该模型由微软研究院和苏黎世联邦理工学院联合发表在了 arXiv 上。

  目前主流的稀疏化技术面临着挺多挑战和困难凯时娱乐代理申请凯时娱乐代理申请凯时娱乐代理申请。比方说,需要额外的数据结构,而且在当下的硬件条件下,速度有限。

  SliceGPT 就能很好的解决这些问题 —— 它能用一个较小的矩阵来替换每个权重矩阵,从而降低网络的嵌入维度。

  此外凯时娱乐代理申请,SliceGPT 还可以在更少的 GPU 上运行,无需额外的代码优化凯时娱乐代理申请凯时娱乐代理申请凯时娱乐代理申请。

  而在 SliceGPT 背后的,则是 Transformer 网络中的计算不变性。下面凯时娱乐代理申请,就让我们走进论文来一探究竟。

  大语言模型(LLM)是拥有数十亿个参数的神经网络,以数万亿词库为基础进行训练。

  这种过高的成本就导致人们会转向在多个任务中重复使用预先训练好的模型,我们称为基础模型范式。

  LLM 的规模越来越大,这使得部署预训练模型成为一项昂贵的工作。许多模型需要多个 GPU 才能计算出预测结果,而且由于模型是自回归的凯时娱乐代理申请,因此需要神经网络的多次前向传递才能生成文本响应。

  研究人员表示凯时娱乐代理申请,虽然剪枝方法已经存在了一段时间凯时娱乐代理申请,但许多方法需要在剪枝后进行恢复微调(RFT)以保持性能,这使得整个过程成本十分高昂,且难以进行扩展凯时娱乐代理申请。

  有了 SliceGPT,开发人员现在只需几个小时就能使用单个 GPU 来压缩大型模型,即使没有 RFT 的帮助,也能在生成和下游任务中继续保持有竞争力的性能凯时娱乐代理申请。

  剪枝方法的工作原理是将 LLM 中权重矩阵的某些元素设置为零,并更新矩阵的周围元素以进行补偿。

  结果就是凯时娱乐代理申请,形成了稀疏模式凯时娱乐代理申请,意味着在神经网络前向传递所需的矩阵乘法中,可以跳过一些浮点运算。运算速度的相对提升取决于稀疏程度和稀疏模式凯时娱乐代理申请。

  与其他剪枝方法不同凯时娱乐代理申请凯时娱乐代理申请,SliceGPT 会彻底剪掉(slice 的由来)权重矩阵的整行或整列。在切分之前凯时娱乐代理申请,研究人员会对网络进行一次转换,使预测结果保持不变,因此切分只会产生很小的影响。

  结果就是权重矩阵变小了凯时娱乐代理申请,神经网络块之间传递的信号也变小了,成功降低神经网络的嵌入维度。

  下图比较了 SliceGPT 和现有的稀疏性方法之间的优势凯时娱乐代理申请凯时娱乐代理申请,主要体现在以下四个方面:

  1. 引入了计算不变性的概念:证明了可以对 Transformer 中的每个权重矩阵进行正交矩阵变换凯时娱乐代理申请,而无需改变模型。

  2. 利用这一点来编辑 Transformer 架构中的每个区块凯时娱乐代理申请,从而将区块间的信号矩阵 1 投影到其自身上,之后移除变换后权重矩阵的列或行,以减小模型的大小。

  3. 研究人员在 OPT 和 LLAMA-2 等模型上进行了多次实验凯时娱乐代理申请,最终结果表明,SliceGPT 能够将这些模型压缩到高达 30%凯时娱乐代理申请凯时娱乐代理申请。此外,在下游任务中凯时娱乐代理申请凯时娱乐代理申请,研究人员还对 Phi-2 模型进行了实验,结果表明所有模型的压缩率最高可达 30%,同时还能保持 90% 以上的密集性能。

  意思就是,研究人员可以对一个组件的输出进行正交变换,只要在下一个组件中撤销即可。

  在网络区块之间执行的 RMSNorm 操作不会影响变换,原因在于这些操作是相通的。

  首先凯时娱乐代理申请,研究人员介绍了在 RMSNorm 连接的 Transformer 网络中,是如何实现不变性的。然后说明如何将使用 LayerNorm 连接训练的网络转换为 RMSNorm。

  研究人员引入了主成分分析法(PCA)计算各层变换的方法凯时娱乐代理申请,从而将区块间的信号投射到其主成分上。

  如果在 RMSNorm 之前插入具有正交矩阵 Q 的线性层,并在 RMSNorm 之后插入 Q ,网络将保持不变,因为信号矩阵的每一行都要乘以 Q凯时娱乐代理申请,然后进行归一化处理,再乘以 Q 凯时娱乐代理申请。就有:

  现在,由于网络中的每个注意力(attention)或 FFN 模块都对输入和输出进行了线性运算,我们可以将额外的运算 Q 吸收到模块的线性层中凯时娱乐代理申请。

  由于网络包含残差连接,此时还必须将 Q 应用于所有前层(一直到嵌入)和所有后续层(一直到 LM Head)的输出。

  在举例中,研究人员可以对 transformer 的权重应用任何正交变换 Q 而不改变其结果凯时娱乐代理申请凯时娱乐代理申请,因此计算可以在任何变换状态下进行凯时娱乐代理申请。

  接下来,由于 transformer 网络的计算不变性仅适用于 RMSNorm 连接的网络,因此在处理 LayerNorm 网络之前,研究人员先将 LayerNorm 的线性块吸收到相邻块中,从而将网络转换为 RMSNorm。

  在每个区块中凯时娱乐代理申请,研究人员将输出矩阵 W (out) 与均值减法矩阵 M 相乘凯时娱乐代理申请,后者考虑了后续 LayerNorm 中的均值减法凯时娱乐代理申请。

  此外,残差连接和区块的输出必须具有相同的旋转(rotation)。为了解决这个问题,研究人员通过对残差进行线Q 来修改残差连接。

  下图显示了如何通过对残差连接进行额外的线性运算,对不同的区块进行不同的旋转。

  尽管如此,研究人员还是需要这些操作来对模型进行切分,而且可以看到整体速度确实加快了。

  为了计算矩阵 Q ,研究人员使用了 PCA。首先从训练集中选择一个校准数据集,通过模型运行该数据集(在将 LayerNorm 运算转换为 RMSNorm 之后),并提取层的正交矩阵凯时娱乐代理申请。

  举例来说,如果 X ,i 是校准数据集中第 i 个序列的第 个 RMSNorm 块的输出凯时娱乐代理申请,那么:

  主成分分析的目标通常是获取数据矩阵 X,并计算其低维表示 Z 和 X 的近似重构。

  其中 Q 是 X X 的特征向量,D 是一个 D×D (small) 的删除矩阵凯时娱乐代理申请,用于删除矩阵左边的一些列。

  而当对区块间的信号矩阵 X 应用 PCA 时,研究人员从未将 N×D 信号矩阵具体化,而是将删除矩阵 D,应用于构建该矩阵之前和之后的运算凯时娱乐代理申请。

  之后研究人员删除 W (in) 的行以及 W (out) 和 W (embd) 的列凯时娱乐代理申请,同时还删除了插入到剩余连接中的矩阵的行和列,矩阵如下所示:

  投资者关系关于同花顺软件下载法律声明运营许可联系我们友情链接招聘英才用户体验计划

  不良信息举报电话举报邮箱:增值电信业务经营许可证:B2-20090237

-