分析低资源非洲命名实体识别中的跨语言传递
本文提出一种基于词级对抗训练、参数共享和特征增强的无监督跨语言命名实体识别模型,可在不依靠双语词典或平行数据的情况下,将命名实体知识从一种语言转移到另一种语言。通过对五种不同语言的实验表明,该模型的有效性优于现有模型,并为每个语言对设置了新的 SOTA。
Nov, 2019
提出了一种基于双语单词嵌入的翻译方法,以改善跨语言的 named-entity recognition 性能,并使用 self-attention 来提高鲁棒性。在对常见语言的测试中达到了最先进或具有竞争力的 NER 性能。
Aug, 2018
通过字符级神经 CRF 模型进行跨多个语言的命名实体识别的迁移学习,使得在资源丰富和资源匮乏的语言中都能提高 F1 分数,并在基线上提升 9.8 个点。
Apr, 2024
本文通过实验证明使用高容量多语言语言模型应用于零样本(基于模型的跨语言转移)情况下能够比基于数据转移更好地执行跨语言序列标注,这可能是由于语言使用的重要差异所致。
Oct, 2022
该研究探讨了在资源匮乏的语言中高效创建高质量实体识别器的最有效方法,通过运用跨语言转移、有针对性注释同属于两种策略的方法,实现在小数据集下快速精确识别实体的结果。
Aug, 2019
该论文探讨了如何自动选择最佳转移语言作为排名问题,建立模型考虑诸如语言相似性,类型学特性,词汇重叠或可用数据大小等因素以执行这种预测。在代表性 NLP 任务的实验中,我们证明了我们的模型比单一特征的单独考虑的基准线更好地预测良好的转移语言,并了解了哪些特征对每种不同的 NLP 任务是最有信息量的,这可能会为未来的专家选择提供帮助。
May, 2019
本文提出了一种元学习方法,通过细调源语言模型,结合相似示例中所传达的结构和语义信息来增强目标语言的命名实体识别。在五种目标语言上的实验表明,该方法显著优于现有的最先进方法。
Nov, 2019
本文研究非洲语言在自然语言处理上的挑战,针对命名实体识别任务,创造了包含 20 种非洲语言的最大人工标注数据集,研究了现有跨语言传递方法的表现,并发现选择最佳传递语言相较使用英语,可以提高零 - shot F1 分数 14 点。
Oct, 2022
多语言语言模型(MLLMs)展现了强大的跨语言转移能力,本研究旨在调查源语言应用于目标语言的效果,特别是在扰动输入测试集的情况下,发现命名实体识别的跨语言转移主要取决于实体块的重叠,研究结果提供了宝贵的跨语言转移见解并强调了在跨不同语言时考虑语言细微差异和潜在限制的必要性。
Mar, 2024
我们提出了一个高效的建模框架,用于半结构化文本数据中的跨语言命名实体识别。我们的方法依赖于知识蒸馏和一致性训练,并且利用预训练在源语言上的大型语言模型(XLMRoBERTa)的知识,通过学生 - 教师关系(知识蒸馏)。学生模型在低资源目标语言上采用无监督的一致性训练(使用 KL 散度损失)。我们使用两个独立的 SMS 数据集,分别是英语和阿拉伯语,每个数据集都携带有半结构化的银行交易信息,并侧重展示从英语到阿拉伯语的知识传递。通过仅使用 30 个标记样本,我们的模型可以将商家、金额和其他字段的识别从英语推广到阿拉伯语。我们的实验表明,在低资源语言的少量标记样本的情况下,学习在英语中识别实体就足以在低资源语言中达到合理的性能。该提出的框架对于开发多语言应用程序,尤其是在数字化努力依赖英语和一种或多种低资源语言的地理区域具有重要意义,有时与英语混合使用或独立使用。
Jul, 2023