Oct, 2022
鲁棒语言模型的伪 OOD 训练
Pseudo-OOD training for robust language models
Dhanasekar Sundararaman, Nikhil Mehta, Lawrence Carin
TL;DR本文提出 POORE - POsthoc pseudo-Ood REgularization 框架,通过在内部数据中生成伪 OOD 数据进行 fine-tune,通过引入新的正则化损失来分离 IND 和 OOD 数据的嵌入,提高了 OOD 预测任务的准确度,相较现有方法在三个实际对话系统上获得了最新的技术进展。