Apr, 2024
ReFT: 语言模型的表示微调
ReFT: Representation Finetuning for Language Models
Zhengxuan Wu, Aryaman Arora, Zheng Wang, Atticus Geiger, Dan Jurafsky...
TL;DR参数高效微调方法通过少量权重的调整来适应大模型。本研究通过发展一系列表示微调方法来探索该假设,利用隐藏表示上的任务特定干预进行表示编辑,展示在多个评估中,低秩线性子空间表示微调方法可以实现比先前最先进参数高效微调方法更好的效率和性能平衡。