Sep, 2024

研究大型语言模型中层的重要性

TL;DR本研究针对大型语言模型(LLMs)在理解和处理文本中的不透明性问题,通过研究模型中各层的重要性来填补这一空白。我们提出了一种高效的抽样方法,利用Shapley值评估层的重要性,并通过剖析实验显示,某些早期层被称为“基石层”,其移除会导致模型性能显著下降。这一发现为未来的LLM研究提供了重要的基础。