Mar, 2024
迈向稳健和多样性:使用文本混合和批量核范数最大化的对话生成中的持续学习
Towards Robustness and Diversity: Continual Learning in Dialog
Generation with Text-Mixup and Batch Nuclear-Norm Maximization
TL;DR该论文研究了在持续学习环境下的对话生成,并提出了一种新的方法,使用Text-Mixup作为数据增强以避免模型在重播记忆上过拟合,同时利用Batch-Nuclear Norm Maximization(BNNM)来减轻模式坍塌问题。实验证明,我们的方法在持续学习中优于现有的方法。