ACLMar, 2022

使用 LOVE 填充词汇外嵌入,低成本提高语言模型鲁棒性

TL;DR使用模仿模型原理生成向量以解决自然语言处理系统中 Out-of-Vocabulary(OOV)单词脆弱性的问题,并提出了一种名为 LOVE 的简单的对比学习框架,可使现有预训练语言模型(如 BERT)的单词表示对 OOV 更为强健,并且在原始数据集和损坏的变体上显示出与之前竞争对手类似或更好的性能。