ACLMay, 2023

低资源语言下跨语言知识蒸馏的答案句子选择

TL;DR本文提出了一种名为 Cross-Lingual Knowledge Distillation (CLKD) 的方法,使用强大的英文 Answer Sentence Selection(AS2)模型作为老师进行跨语言知识蒸馏,可用于训练对于标注数据有限的低资源语言的 AS2 模型。作者还介绍了两个多语言数据集进行了实证研究,通过多次实验验证,CLKD 方法在不用标注数据的情况下,可与使用相同数量标注数据的监督微调方法相媲美,具有潜力为低资源语言提供更强大的 AS2 模型,同时这两个多语言数据集能够在 AS2 领域进行更广泛的研究。