ACLApr, 2022

面向领域的前缀微调:用于零样本对话摘要的高效且具有通用性的微调方法

TL;DR本文提出了一种高效且通用的基于领域的前缀微调模型,利用领域词初始化前缀模块以减轻领域交错,采用离散提示来引导模型关注对话的关键内容并增强模型的泛化能力。我们在 TODSum 和 QMSum 数据集上进行了零 - shot 实验,并构建了领域自适应基准。充分的实验和定性分析证明了我们方法的有效性。