本研究提出了一种新颖的神经网络框架,将预先训练好的字级知识和字符感知神经语言模型相结合,利用转移学习技术实现不依赖于额外监督信号的序列标注任务,并在基准数据集上通过大量实验验证了其有效性和高效性。
Sep, 2017
本文探讨了一种半监督的方法,通过添加双向语言模型的预训练上下文嵌入到 NLP 系统中用于序列标注任务,相比其他转移学习或添加标记数据和任务特定词典的方法,在命名实体识别和块分割等任务上实现了最先进的结果。
Apr, 2017
该研究提出了一种生成式框架,用于多个序列标记任务和句子级分类。与以往的判别式方法不同,该模型通过共享自然语言输出空间,自然地融合标签语义,并在任务之间共享知识。该框架具有通用性,可在 few-shot、低资源和高资源任务上表现良好,并在命名实体识别、槽位标记和意图分类等基准测试中展示了这些优势。
Sep, 2020
通过使用通用的基于 Bi-LSTM 的神经序列标注模型,其应用于广泛的自然语言处理任务和语言,结合从数据中提取的形态、语义和结构提示信息以进行有根据的预测,本研究在 8 个基准数据集上对其性能进行了评估,其结果在 4 个数据集上取得了最佳的表现。
Aug, 2018
本文提出了一种基于多任务框架和序列到序列模型的语义解析方法,旨在解决语料数据不足限制,较少标注数据任务可以通过从大量标注数据任务中传递学习的方式得到提升,实验结果在自己的数据集中获得了 1.0% 到 4.4% 的准确度提升,在 ATIS 语义解析任务中,准确度提升了 2.5% 到 7.0%。
Jun, 2017
该研究探讨了不同颗粒度的目标如何用于学习更好的语言表示,并提出了一种架构来联合学习标记句子和标记令牌,最终通过注意力机制将每个级别的预测组合,其中令牌级别的标签也作为显式监督来合成句子级别的表示,实验结果表明,通过在多个级别上联合执行这些任务,模型在句子分类和序列标记方面都取得了实质性的改进。
Nov, 2018
介绍了一种基于多任务可变方法的半监督序列标注模型,该模型涵盖了生成模型和判别模型,并探索了一些潜在变量配置方案,能更好地标记数据,使得在 8 个序列标注数据集中其性能优于标准的顺序基线模型,并且在无标记数据的情况下还有进一步的提升。
Jun, 2019
本文提出了多语言语言模型与深度语义对准(MLMA),用于产生跨语言标注的语言无关表示,方法不需要平行数据或一个词一个词匹配,只需要单语语料库,并利用深度上下文表示。实验结果表明,本方法在欧洲语言以及英语和汉语等远距离语言对上实现了新的最新 NER 和 POS 性能。
Oct, 2019
通过研究 11 个序列标注任务中的三种多任务学习方法,我们发现在大约 50% 的情况下,联合学习所有 11 个任务可以改善独立学习或成对学习任务的效果。我们还展示了成对多任务学习可以告诉我们哪些任务可以互惠,哪些任务在联合学习时可以受益。我们的一种多任务学习方法产生的任务嵌入还揭示了语义任务和语法任务的自然聚类。我们的研究打开了在自然语言处理中进一步利用多任务学习的大门。
本论文结合多任务学习和半监督学习,通过在不同标签空间之间引入联合嵌入空间以及学习标签嵌入之间的转移函数,使得我们能够共同利用未标记数据和辅助的已标记数据集。我们在多个序列分类任务中评估了我们的方法,并且超过了强单任务和多任务基线,实现了新的基于主题的情感分析最新成果。
Feb, 2018