Mar, 2023

借助字符级噪声对 BERT 进行微调,实现零 - shot 迁移到方言和密切相关的语言

TL;DR本文介绍了一种方法,通过在 fine-tuning BERT 模型时引入不同形式的字符级噪音,实现了对不同方言和语言的零 - shot 跨语言迁移。作者在三个句子级分类任务上 fine-tune BERT,并在若干未知的方言和语言上进行了评估。他们发现,在特定条件下,字符级噪音可以成为跨语言转移的极其有效的催化剂。特别是当任务依赖表层提示且源 - 目标跨语言语言对具有相对较高的词汇重叠,并且平均具有较短(即含义较少)的未知令牌时,fine-tuning 过程中引入字符级噪音可以帮助更好地完成任务。