ACLJun, 2021

异常语言的极小极大和 Neyman-Pearson 元学习

TL;DR为提高 MAML 方法在跨语言自然语言处理中的鲁棒性,本文提出了两个基于最小化最大风险和约束性分布分别的构思而实现的改进版本:Minimax MAML 和 Neyman-Pearson MAML。这两种标准均构成了可微分的两人博弈。研究者在 POSM 和 QA 两个自然语言处理任务中对比了它们与其他方法的效果表现。