当前的位置:泉州汽车网 >> 新闻中心 >> 大模型承重墙,去掉了就开始摆烂!苹果给出了「超级权重」 >> 正文

大模型承重墙,去掉了就开始摆烂!苹果给出了「超级权重」

发布时间:2024-11-20 09:50:43 来源:机器之心Pro

去掉一个「超权重」的影响,比去掉其他7000个离群值权重加起来还要严重。

大模型的参数量越来越大,越来越聪明,但它们也越来越奇怪了。

两年前,有研究者发现了一些古怪之处:在大模型中,有一小部分特别重要的特征(称之为「超权重」),它们虽然数量不多,但对模型的表现非常重要。

如果去掉这些「超权重」,模型就完全摆烂了,开始胡言乱语,文本都不会生成了。但是如果去掉其他一些不那么重要的特征,模型的表现只会受到一点点影响。

有趣的是,不同的大模型的「超权重」却出奇地相似,比如:

它们总是出现在层中。

它们会放大输入token激活的离群值,这种现象研究者们称之为「超激活」(superactivation)。无论输入什么提示词,「超激活」在整个模型中都以完全相同的幅度和位置持续存在。而这源于神经网络中的「跨层连接」。

它们还能减少模型对常用但不重要的词汇,比如「的」、「这」、「了」的注意力。

得到了这些发现,圣母大学和苹果的研究团队进一步对「超权重」进行了探索。

他们改进了round-to-nearestquantization(RNQ)技术,提出了一种对算力特别友好的方法。

论文链接:https://arxiv.org/pdf/2411.07191论文标题:TheSuperWeightinLargeLanguageModels

这种新方法与SmoothQuant效果相当,在处理模型的权重时,可以用这种技术处理更大的数据块,让模型在变小的同时,还能保持很好的效果。

看来,苹果是真的把宝押在小模型身上了!

什么是「超权重」?

为了量化「超权重」对模型的影响有多大,研究团队修剪了所有的离群值权重,结果发现,去掉一个「超权重」的影响,比去掉其他7000个离群值权重加起来还要严重。

如何识别「超权重」?

虽然之前的研究者发现了「超权重」可以激活异常大的神经网络。该团队又把「超权重」和「超激活」之间的联系向前推进了一步。他们发现在降维投影之前,门控和上投影的Hadamard乘积产生了一个相对较大的激活,而「超权重」进一步放大了这个激活并创造了「超激活」。

而通过激活的峰值可以进一步定位「超权重」。基于此,研究团队提出了一种高效的方法:通过检测层间降维投影输入和输出分布中的峰值来定位「超权重」。

这种方法只需要输入一个提示词,非常简单方便,不再需要一组验证数据或具体示例了。

在这种情况下,j和k是由X_ik和Y_ij的值决定的。因此,可以首先绘制出mlp.downproj层的输入和输出激活中的极端异常值。接着,如图3所示,确定超权重所在的层和坐标。

一旦检测到一个超权重,将其从模型中移除并重复上述过程,直到抑制住较大的最大激活值。

「超权重」的机制

「超权重」的影响

研究团队发现超级权重有两种主要影响:

引发「超激活」;抑制了停用词(stopword)的生成概率。

为了探究「超权重」是完全通过「超激活」,还是也通过其他token来影响模型质量,研究团队设计了一个控制变量实验:

原始模型;移除「超权重」,将其权重设置为0;移除「超权重」,但恢复神经网络层中的「超激活」。

实验结果如表1所示。恢复「超激活」后,模型的平均准确率从35.14恢复到49.94,恢复「超激活」挽回了约42%的质量损失。

这表明,「超权重」对模型整体质量的影响并不完全由「超激活」所导致。

「超权重」对输出token概率分布的影响

「超权重」会影响输出token的概率分布。为此,该团队研究了「超权重」对Lambaba测试集的500个prompt的输出token概率分布有何影响。

实验表明,移除「超权重」后,停用词的生成概率显著放大。例如,对于Llama-7B模型,「the」的生成概率增加约2倍,「.」增加约5倍,「,」增加约10倍

为了更加深入地剖析,研究团队进行了案例研究:

输入prompt为:「Summerishot.Winteris」下一个token应为「cold」,这是一个具有强语义的词。

含有「超权重」的原始模型能够以81.4%的高概率正确预测。然而,移除「超权重」后,模型预测的最多的词变成了停用词「the」,并且「the」的概率仅为9.0%,大多数情况是在胡言乱语。

这表明,「超权重」对于模型正确且有信心地预测具有语义的词汇至关重要。

「超权重」的重要性

研究团队还分析了超级权重幅值变化对模型质量的影响,通过将超级权重按0.0到3.0的缩放因子放大。结果表明,适度放大幅值可以提升模型准确率,详见下图。

超离群值感知量化

量化是一种压缩模型和减少内存需求的强大技术。然而,无论是权重量化还是激活量化,异常值的存在都会大大降低量化质量。如前所述,研究者将这些有问题的异常值(包括超权值和超激活值)称为超异常值。

如上所示,这些超离群值对模型质量的重要性是不成比例的,因此在量化过程中保留它们至关重要。

量化一般是将连续值映射到一个有限的值集;这里考虑的是其中一种最简单的形式,即非对称轮至最近量化:

研究者特别考虑了硬件以半精度执行运算的情况,这意味着张量X在使用前会进行量化和去量化;在这种情况下,我们可以通过两种方法利用超离群值的先验知识。

首先,保留超离群值,防止对离群值量化产生不利影响。其次,在去量化后恢复超离群值,以确保超离群值的效果得以保留。

接下来将以两种形式对权重和激活采用这一观点。

激活量化

研究者使用值舍入量化技术进行实验,并做了一个小修改:用中值替换超激活(REPLACE),量化(Q)和去量化(Q-1)激活,然后在FP16中恢复超激活(RESTORE)。具体操作如下:

由于超激活是单个标量,因此对比特率和内核复杂度的影响不大。

权重量化

小规模分组会带来计算和比特率开销,需要其他技术来处理大量的半精度刻度和偏差。为了应对这一挑战,本文提出了一种简单的方法来改进INT4的大块量化。首先,识别超权重;其次,为了改善离群值拟合,对离群值权重进行剪切(CLIP),在这一步超权重也会被剪切,对剪切后的权重进行量化(Q)和去量化(Q-1);然后,为了确保保留超权重的效果,在去量化后恢复半精度超权重(RESTORE)。

如上公式,使用z-score对剪切进行参数化。假定所有权重都符合高斯分布,研究者认为所有z值超过某一阈值z的值都是离群值。为了调整超参数z,研究者使用Wikitext-2训练集中的500个示例找到了最小重构误差z-score。

实验

为了全面展示超权重的效果,研究者在LLaMA7B-30B、Mistral7B和OLMo上进行了实验。为了评估LLM的实际应用能力,他们评估了这些模型在PIQA、ARC、HellaSwag、Lambada和Winogrande等零样本基准上的精度。细节如下所示。

激活量化

表3比较了本文方法和SmoothQuant。对于两个数据集上的三个Llama模型,本文方法比SmoothQuant的naive量化方法提高了70%。在使用Llama7B的C4数据集和使用Llama-30B的Wikitext数据集上,本文改进幅度超过SmoothQuant的80%。这意味着,与更复杂的方法相比,经过大幅简化的量化方法可以获得具有竞争力的结果。

随后,研究者扩大了评估范围,纳入了更多的LLM:OLMo(1B和7B)、Mistral-7B和Llama-2-7B,结果如表4和附录表7所示。这些模型代表了不同的架构和训练范式,能够评估量化方法的通用性。由于SmoothQuant没有报告这组模型,因此研究者将他们的结果与naiveW8A8量化进行了比较。在所有模型和数据集上,本文方法始终优于naiveW8A8量化,且在OLMo模型上表现特别突出。

值得注意的是,OLMo模型使用非参数化LayerNorm,因此与SmoothQuant方法不兼容,后者依靠LayerNorm权重来应用每个通道的比例。在Mistral-7B上,改进幅度较小。研究者假设这是因为这些模型的LayerNorm所学习的权重可能会积极抑制超激活,从而使激活幅度的分布更加均匀。

这些结果凸显了超激活在量化过程中保持模型性能的重要性。通过以最小的计算开销解决这一单一激活,本文方法捕捉到了更复杂的量化方案所实现的大部分优势。这一发现表明,在量化过程中,超激活在保持模型质量方面发挥着不成比例的巨大作用。

权重量化

为了评估所提出的超权重感知量化方法的有效性,研究者将其与传统的round-to-near量化方法进行了比较,在一套零样本下游任务中对模型进行了评估,结果如图7所示。

在传统的round-to-near量化方法中,可以观察到一个明显的趋势:随着块大小的增加,模型质量明显下降。这种下降可能是由于当较大的权重块一起量化时,量化误差会增加,从而使异常值影响到更多的权重。相比之下,本文的「超权重」感知量化方法对更大的块大小具有更强的鲁棒性。随着块大小的增大,模型质量的下降明显小于round-to-near方法。

这种鲁棒性源于本文方法能够保留最关键的权重(超权重),同时将离群值权重对整个量化过程的影响降至最低。通过剪除离群值并关注离群值权重,本文的方法在表示模型参数时保持了更高的保真度。

还有一个关键优势是,它能够支持更大的数据块尺寸,同时减少模型质量的损失。这种能力使平均比特率更低,文件尺寸更小,这对于在资源有限的环境(如移动设备或边缘计算场景)中部署模型至关重要。

更多研究细节,可参考原论文。

猜你喜欢

公司简介 | 商业合作 | 广告中心 | 联系我们 | Copyright © 2022 WWW.QZQCW.COM All Rights Reserved.

泉州汽车网、大泉州汽车网 版权所有

网站地图网站地图网站地图网站地图网站地图网站地图网站地图网站地图网站地图网站地图网站地图网站地图网站地图网站地图网站地图网站地图网站地图网站地图网站地图网站地图