Jun, 2024

LLM 的卓越稳健性:推理阶段?

TL;DR通过删除和交换相邻层,我们展示并研究了大型语言模型的显著健壮性,并发现删除和交换方法可以在不进行微调的情况下保留原始模型预测准确性的 72-95%,而具有更多层的模型表现出更强的健壮性。基于逐层干预和进一步实验的结果,我们假设了跨 8 个不同模型的四个普遍推理阶段的存在,即去标记化,特征工程,预测集成和残余调整。第一个阶段将局部信息融合,将原始令牌表示提升为更高级别的上下文表示。接下来是任务和实体特定特征的迭代改进。然后,模型的后半部分开始时进行相位转变,由于专用模型组件,隐藏表示与词汇空间更加一致。最后,最后一层通过消除向预测添加噪音的过时特征来调整后续令牌分布。