使用音素表示进行低资源语言的零射击跨语言命名实体识别
本文提出一种结合多语言训练和自监督学习的方法来提高低资源 ASR 性能,其中采用国际音标(IPA)多语言模型为无标签语音创建帧级伪标签,并以这些伪标签以 Phonetically-informed 的方式引导基于 HuBERT 的语音预训练。实验证明,该方法在所有目标语言上均优于标准 HuBERT,并且在 3 种语言中表现更佳,同时最多能够节省 1.5k 小时(75%)有监督训练数据。
May, 2023
本文通过使用发音特征将多种训练语言的音素映射到目标语言中,对多语言预训练的 wav2vec 2.0 模型进行微调,以在没有标记数据的情况下提高其对未见过的语言的识别能力,并在实验中取得了较优效果。
Sep, 2021
本文研究使用预训练模型来解决无监督语音识别中的音素和单词级别的问题。通过在 IPA 音素转写上微调预训练模型并使用语言模型进行解码,实验结果表明该方法可在某些语言上实现低于 20% 的单词错误率,8 种语言的平均错误率为 33.77%。
Oct, 2022
多语言理解的改进方法通常在训练阶段需要多种语言,依赖复杂的训练技术,同时也在高资源语言和低资源语言之间存在重大的性能差距。我们假设语言之间的性能差距受到这些语言之间的语言差距的影响,并通过使用声素表示(具体而言,使用声素作为输入标记到语言模型,而不是次词)来提供强大的多语种语言建模的新解决方案。我们通过三个跨语言任务的定量证据以及对跨语言性能差距的理论分析进一步证明了声素表示的有效性。
Feb, 2024
本文提出一种基于词级对抗训练、参数共享和特征增强的无监督跨语言命名实体识别模型,可在不依靠双语词典或平行数据的情况下,将命名实体知识从一种语言转移到另一种语言。通过对五种不同语言的实验表明,该模型的有效性优于现有模型,并为每个语言对设置了新的 SOTA。
Nov, 2019
提出了一种基于双语单词嵌入的翻译方法,以改善跨语言的 named-entity recognition 性能,并使用 self-attention 来提高鲁棒性。在对常见语言的测试中达到了最先进或具有竞争力的 NER 性能。
Aug, 2018
优化两阶段跨语言迁移学习在低资源语言中的应用,通过改进音素识别和音素到字素转换模型,优化了语音识别跨语言学习过程,合并共享发音特征的音素以增强识别准确性,引入全局音素噪声生成器降低错误传播。在 CommonVoice 12.0 数据集上的实验结果表明,对于低资源语言,我们的方法显著减少了单词误差率(WER),展示了方法的有效性,对于改进低资源语言中的两阶段语音识别系统,提供了潜在的跨语言迁移学习。
Dec, 2023
通过使用非母语注释方法,在低资源情况下的自然语言处理中提出一种改进低资源 NER 模型的方法,通过实验验证该方法的有效性及优越性,可以在一定程度上替代现有的跨语言方法。
Jun, 2020
本研究使用零样本学习的方法解决语言无训练数据情况下语音转写的挑战,将语音音素分解成相应的发音属性,结合定制的声学模型,实现对目标语言中未知音素的识别,评估结果表明,该方法比传统多语言模型的平均音素误差率提高了 7.7%。
Feb, 2020