Aug, 2024

偏见意识低秩适应:缓解大型语言模型的灾难性继承

TL;DR该研究针对大型语言模型在下游应用中面临的偏见传播问题,提出了一种新的参数高效微调方法BA-LoRA。通过引入一致性、可多样性和奇异向量分解的正则化项,BA-LoRA在多种自然语言理解和生成任务中表现优于现有的LoRA及其先进变体,有效减轻了预训练数据带来的偏见影响。