Nov, 2022

大型语言模型与可控制的工作记忆

TL;DR本文研究了大型语言模型的可控性和鲁棒性,并提出了一种新的知识感知微调方法(KAFT),可通过引入反事实和无关语境来增强模型的可控性和鲁棒性。该方法适用于各种模型构架和规模。