Mar, 2024

迈向稳健和多样性:使用文本混合和批量核范数最大化的对话生成中的持续学习

TL;DR该论文研究了在持续学习环境下的对话生成,并提出了一种新的方法,使用Text-Mixup作为数据增强以避免模型在重播记忆上过拟合,同时利用Batch-Nuclear Norm Maximization(BNNM)来减轻模式坍塌问题。实验证明,我们的方法在持续学习中优于现有的方法。