ACLApr, 2024

通过上下文一次性演示实现适应性跨语言文本分类

TL;DR通过在分类任务中介绍上下文一次性跨语言转换(IC-XLT),可以通过训练模型学习上下文示例,然后在推断时通过在目标语言中预置一次性上下文演示来适应目标语言,提高评估的 mT5 模型的跨语言能力,超过基于提示的模型在经过微调的零和少样本情景中的表现。此外,当源语言数据有限时,IC-XLT 的微调框架与源语言中具有显著更多训练数据的基于提示的微调具有相当的性能。