Oct, 2022
对话理解中基于数据效率的数据集内任务迁移探索
An Exploration of Data Efficiency in Intra-Dataset Task Transfer for
Dialog Understanding
TL;DR本研究探讨了在对话领域中,基于顺序迁移学习的多少目标任务训练数据会对模型性能和数据效率产生何种影响。研究结果表明,在许多情况下,与没有迁移学习的相同模型相比,目标任务的训练数据大小对顺序迁移学习的表现几乎没有影响。这一出人意料的结果可能是灾难性遗忘效应的影响,进一步的工作需要研究如何避免这种遗忘。