May, 2024

低秩微调 LLMs:公平视角

TL;DR研究表明低秩逼近 Fine-Tuning 在捕捉 Fine-Tuning 数据集从初始预训练数据分布中的转变方面具有不足之处,会产生不可忽视的副作用,包括在针对有毒模型和提供公平模型的情景下意外保留不合理的偏差和有毒行为。此外,对于顺序决策任务,需要进行仔细评估以促进负责任的大型语言模型开发。