领域多样化和泛化的跨语料库口语语言识别
本研究针对印度语境下多种语言混杂的情况,对在语音处理中较为基础的语种识别系统 LID 进行优化,提出基于语种掩蔽和光谱增强的方法,在微软研究团队提出的挑战任务中相对基线系统进行了 3-5% 的 LID 准确度改进。
Oct, 2020
领域泛化通过提高模型的鲁棒性来开发具有分布偏移上的稳定性的模型。现有方法在跨域数据上学习不变性以增强模型的稳健性,数据增强被广泛用于学习不变的预测模型,其中大多数方法在输入空间进行增强。然而,输入空间的增强的多样性有限,而特征空间的增强更加灵活且显示了有希望的结果。然而,特征语义很少被考虑,现有特征增强方法缺乏增强特征的多样性。我们将特征分解为类通用、类特定、领域通用和领域特定组件。我们提出了一种名为 XDomainMix 的跨域特征增强方法,使我们能够增加样本的多样性,同时强调学习不变表示以实现领域泛化。对广泛使用的基准数据集的实验证明我们的方法能够实现最先进的性能。定量分析表明我们的特征增强方法有助于学习在不同领域中都不变的有效模型。
May, 2024
本研究提出了基于领域对抗训练、差异最小化和矩匹配方法的三种新的自适应方法,以在多个声学领域中进一步提高自适应性能。实验表明,多种声学环境确实会影响讲话者识别性能,并且领域对抗训练、差异最小化和矩匹配自适应都能在多个声学领域中同时实现有效性能。
Nov, 2022
本文研究如何针对不同领域生成相关的回答。通过探讨交错训练、多领域学习和基于域特定频率的加权训练方法,我们提出了一种新的词级别重要性权重度量 DF,并通过将其整合到损失函数中,得到了显著的改进。
May, 2022
提出了一个新模型来生成多领域环境下六种印度语言的词典词汇,该模型包括特定领域和通用领域层,通过可学习的路由技术调用这些层,同时还提出了一种利用这些印度语言之间相关性实现连贯翻译的方法。还发布了一组跨越八个不同领域的六种印度语言的基准数据集,以促进进一步的领域特定词库归纳研究,并在多个领域进行了零样本和少样本实验,展示了我们提出的模型在泛化到未见领域和未见语言上的效果。
May, 2024
本文提出了一种利用具有相同语言的多个地方可用数据的方法,以提高口语语言理解中的域分类模型准确性和用户体验,即使新的地方没有足够的数据,并减少将域分类器扩展到大量场所的成本。我们建议了一种基于选择性多任务学习的 locale-agnostic 通用域分类模型,该模型学习具有不同域集的地点上的话语的联合表示,并允许地点根据域的不同选择性地共享知识。实验结果表明,我们的方法在具有不平衡数据和不同域集的多个场所的域分类任务上是有效的。所提出的方法特别优于其他基线模型,尤其是在分类特定于本地区的领域和低资源领域时。
May, 2019
近期由深度学习模型取得的进展基于独立且同分布的假设,限制了它们在具有领域转移的实际场景中的应用。为了解决上述问题,跨域学习旨在提取领域不变的知识,以减少训练和测试数据之间的领域转移。然而,在视觉跨域学习中,传统方法仅集中于图像模态,忽略了利用文本模态来减轻领域转移。本文提出了大型语言模型作为视觉跨域学习器(LLaVO)。LLaVO 使用视觉 - 语言模型将图像转换为详细的文本描述,然后使用设计的指令模板在源 / 目标领域生成的文本描述上对大型语言模型进行微调。对领域概括和无监督领域自适应设置下的各种跨域任务进行了广泛的实验,结果表明了所提方法的有效性。
Jan, 2024
本文提出了一种用于自动提取领域特定特征和领域不变特征的无监督特征分解方法,并利用互信息估计将交叉语言表示计算所述的跨领域和跨语言(CLCD)设置分解为领域不变和领域特定部分,实验结果表明,我们提出的方法在 CLCD 设置中取得了显著的性能提升。
Nov, 2020
本文提出了一种基于词典的数据增强方法,用于跨领域神经机器翻译。通过生成大规模的伪 IND 平行语料库,可以增强一般域训练的基线 NMT 模型,实验结果表明,DDA 增强的 NMT 模型表现出一致显著的改进,胜过基线模型 3.75-11.53 BLEU。
Apr, 2020