本文提出了一种序列到序列的注意力重点改进的方法,用于跨域语义分析的域间适应问题,并且对预先训练的词嵌入进行了标准化,这种方法在 Overnight 数据集上有显着的改进。
Apr, 2017
本文提出了一种无监督的自适应方法,使用伪域内语料库通过微调预先训练的域外NMT模型,借助词典诱导提取域内词汇,并通过针对性的单语域内目标句子进行逐词反向翻译构建伪平行域内语料库,在20对自适应设置和两种模型架构的五个领域中,我们的方法始终显示出提高,而不需要使用任何域内平行句子,改进了未经过调整的模型高达14 BLEU和强反向翻译基线的最高2 BLEU。
Jun, 2019
使用神经解析器和结构化输出预测来实现在零-shot设置下对其他领域进行泛化的研究,并在英语和汉语语料库上获得了最新的解析结果。
Jul, 2019
提出一种通过使用语言建模来学习领域感知特征嵌入,在多个实验中提高神经机器翻译性能的方法,该方法允许使用者指定特定领域的文本表示。
Aug, 2019
本篇综述针对最近的研究进展,对不需要标记目标领域数据的神经无监督领域自适应技术进行了概述,包括从传统非神经方法到预训练模型迁移的方法,并揭示了自然语言处理任务类型中存在的偏见问题以及未来的研究方向,特别是面向 NLP 的超分布通用化需求。
May, 2020
本文提出了一种利用两阶段粗到细的框架进行领域自适应的新型语义解析器,能够在目标域与源域数据相比相对少的情况下实现自适应,并显著改进了现有领域自适应策略。
Jun, 2020
通过适应标记器,将预训练语言模型转移到新领域,提供了与基于专门领域的预训练方法相当的性能,同时生成的模型更小且训练和推断时间更短。
Sep, 2021
本文提出了一种使用计算有效的适配器方法在多个不同领域适应的方法,其通过冻结预先训练的语言模型并与每个节点相关联的适配器权重组合,实现相关领域之间的参数共享。GPT-2和C4中最多的100个网站上的实验结果表明,这种方法可以全面提高领域内性能,并提供了一种推理时间算法来推出新领域的泛化性能,同时只能增加成本。
Dec, 2021
本文比较了NLP中使用不同方法处理数据量不足的问题,提供了使用少量标记训练数据来构建NLP应用的指南。虽然预训练语言模型的转移学习在各种任务中都表现出色,但其他方法的性能差别不大,而且需要的计算成本更少,从而显著降低了预算和环境成本。我们研究了几种这样的替代方案的性能权衡,包括可以加速训练175K倍且不需要单个GPU的模型。
Mar, 2022
本文介绍了近年来自然语言处理中预训练语言模型(PLMs)的最新进展,并为适应目标领域提供了一种有效的方法。考察了PLMs的应用问题并提出了域自适应方法的分类方案,包括输入扩充、模型优化和个性化等方法。
Nov, 2022