May, 2023

低资源语言下跨语言知识蒸馏的答案句子选择

TL;DR本文提出了一种名为Cross-Lingual Knowledge Distillation (CLKD)的方法,使用强大的英文Answer Sentence Selection(AS2)模型作为老师进行跨语言知识蒸馏,可用于训练对于标注数据有限的低资源语言的AS2模型。作者还介绍了两个多语言数据集进行了实证研究,通过多次实验验证,CLKD方法在不用标注数据的情况下,可与使用相同数量标注数据的监督微调方法相媲美,具有潜力为低资源语言提供更强大的AS2模型,同时这两个多语言数据集能够在AS2领域进行更广泛的研究。