Dec, 2023
其中隐藏真理:使用层选择性排名降低改善语言模型的推理能力
The Truth is in There: Improving Reasoning in Language Models with Layer-Selective Rank Reduction
Pratyusha Sharma, Jordan T. Ash, Dipendra Misra
TL;DR通过选择性删除大型语言模型(LLMs)的高阶权重矩阵组成部分,可以显著提高其性能,称为 LASER(LAyer-SElective Rank reduction)方法。该方法在训练完成后对模型进行简单介入,不需要额外的参数或数据,并通过广泛的实验证明其在语言模型和数据集上的普遍适用性,同时提供了深入的分析来揭示 LASER 的有效性和运作机制。