- ACL有限平行资源下的跨语言抽象摘要
使用一种多任务框架和共享解码器的方法,跨语言摘要的跨语言资源匮乏问题得以解决,此方法名为 MCLAS。通过 MCLAS,实验表明其可以在有限的跨语言资源下,显著优于三种基准模型。
- 评估神经词嵌入在梵语中的应用
本文首先介绍了近年来有关监督学习的显著进展,引起了梵语计算语言学家的广泛关注。随后,作者为低资源环境下各种自然语言处理任务构建了具有特定任务标签的数据。接下来,作者以词嵌入为主要研究方向进行了分析,分类和评估。研究检验了词嵌入方法在梵语中的 - ACL少量预训练大有裨益:针对低资源词形丰富语言的依存句法分析任务案例研究
本研究针对资源匮乏的语言环境下,针对高度分析形态的自然语言(MRLs)的依赖句法分析任务,提出了预训练的简单辅助任务方法,实验结果表明,提出的方法使得在 10 种低资源语言环境下实验得到了稳定的提高
- EMNLP应对规范分割的低资源挑战
本文探讨了在训练数据有限的情况下,如何将单词分割为标准化的语素,提出了两种新的模型:LSTM 指针生成器和带有硬单调注意力的序列到序列模型,并在德语、英语、印度尼西亚语、波波卢卡语和特佩瓦语进行了实验。结果显示,在低资源情境下,这些新颖的方 - ACL基于元迁移学习的混合语言语音识别
通过元迁移学习的新学习方法提取高资源单语数据信息,条件化优化混合语音识别数据,从而在低资源环境下实现混合语音识别,实验结果表明,我们的模型在语音识别和语言建模任务方面优于现有基线模型,并且收敛速度更快。
- ICLR低资源知识驱动对话生成
在低资源环境下,通过设计一种解耦响应解码器使模型可以仅从大量未接地对话和非结构化文档中学习,而只使用有限的训练示例就能很好地拟合剩余的小参数。在两个基准测试上的评估结果表明,我们的模型仅使用 1/8 的训练数据就可以实现最先进的性能,而且对 - ICLR自然语言处理任务中的迁移学习监督上下文嵌入
本文关注于从多个预训练的监督模型中提取表示,以丰富单词嵌入具有任务和领域特定的知识,实验表明这样的监督嵌入对于低资源情况有所帮助,但对于任务和领域的性质不同的扩展程度不同,而我们公开了我们的代码。
- IJCAI面向任务型对话系统的低资源自然语言生成元学习
本文探讨了在低资源环境下生成新场景的句子,提出了基于元学习的通用优化方法(Meta-NLG)来解决这个问题,并在大型多域数据集上进行了实验,表明 Meta-NLG 在各种低资源配置中显著优于其他训练过程,适应低资源情况极快且良好。
- MM面向形态丰富语言的字符感知解码器
本文针对神经机器翻译系统忽略词法低层级模式的问题,提出一种字符感知解码器,通过卷积神经网络结构训练,以实现针对语言词法丰富情况下的 MT 系统翻译质量提升。实验结果表明,本文方法在 14 种不同类型的语言翻译中,能够显著提升 BLEU 得分 - ICLR增强循环对抗学习用于低资源域自适应
本文介绍了一种增强循环对抗学习模型,用于域适应并解决在其中数据丰富的域中对任务的学习问题,通过迁移学习及结合声音识别任务的结果,在低资源环境下将 SVHN 和 MNIST 彼此转换的分类准确率分别提升了 14% 和 4%。
- ACL一种用于上下文形态变化的结构化变分自编码器
使用生成型潜变量模型和变分推断方法解决未标注数据下降低资源被限制的语言对词形变化生成的研究问题,实验中得到一些语言中 10% 准确性的提高。
- ACL神经机器翻译中形态丰富输入的组合表示
本文提出用双向循环神经网络替代 NMT 源语言嵌入层,在任何所需的粒度水平上生成组合表示,从而解决基于统计的分词方法中可能导致的形态错误,实现了从字符 N-gram 组成词表示的 NMT 训练方法的一致逆袭。
- 将结构对齐偏置纳入一种注意力神经翻译模型
本文通过结合词汇调整模型,位置偏差,马尔科夫和翻译方向的一致性等多种结构偏差因子,扩展了注意力神经翻译模型,相比基线模型和标准短语模型在多种语言对中取得了提升,验证了在低资源环境中的有效性。