掩码与填空:应用掩码语言模型进行情感转换
本文提出了一种基于 AM-ST 模型的情感转移方法,通过学习任务相关的蒙版参数,使用注意力机制和情感感知掩膜语言模型来捕捉多级语义并填充蒙版空白位置,实验结果表明,本文提出的方法优于现有方法。
Feb, 2023
本文提出一种名为 Infilling by Language Modeling 的文本补全方法,它采用了一个预训练的语言模型来预测文档中的任意位置缺失的文本,并在短篇小说、科学摘要和歌词三种不同领域有效地补全整个句子。研究结果显示,采用这种方法补全的句子很难被人识别为机器生成,适用于辅助写作工具。
May, 2020
该论文提出了 Masker,一种用于风格转移的无监督文本编辑方法,它利用掩码语言模型 (Masked Language Models) 在没有平行数据的情况下训练源语言和目标语言模型,并通过删除源文本的部分标记和替换为目标模型的标记,实现风格的转换。此方法在低资源环境中可以提高监督方法的准确性。
Oct, 2020
我们提出了一种利用基于变压器的 BERT 模型的填充掩码特性的新型文本增强方法,该方法在句子中迭代遮盖单词并使用语言模型预测替换它们。我们在各种 NLP 任务上测试了我们提出的方法,并发现它在许多情况下都是有效的。我们将我们的结果与现有的增强方法进行了比较,并实验结果表明我们提出的方法显著提高了性能,尤其是在主题分类数据集上。
Jan, 2024
本文介绍了一种新的神经机器翻译数据增强方法,可以在语言内外强制实现更强的语义一致性。结果表明,条件掩蔽语言模型是一种生成上下文相关单词分布的有效技术,并集成了软词替换的思想,以增强数据多样性,加强语义一致性。该方法在四个规模不同的翻译数据集上进行的实验结果,展示了更真实的数据增强和更好的翻译质量,相对于强和最新的工作,我们的方法一致实现了最佳性能,并相对于基线改进了高达 1.90 BLEU 分数。
Sep, 2022
本文研究在跨模态预训练中使用遮蔽语言建模(Masked Language Modeling,简称 MLM)的一些问题,提出了一些针对这些问题的替代遮蔽策略,在 LXMERT 模型预训练时,我们的替代策略始终优于原始遮蔽策略,特别是在低资源设置下,我们的预训练方法显著优于基准模型,并且通过对影像对象的特定标记任务的评估,我们的结果和分析表明,该方法允许更好地利用训练数据。
Sep, 2021
本文介绍了一种名为条件遮蔽语言建模(CMLM)的新型训练方法,用于在大规模未标记的语料库上有效地学习句子表示。CMLM 通过在编码相邻句子的向量上进行条件处理,将句子表示学习整合到 MLM 训练中。我们的英语 CMLM 模型在 SentEval 上取得了最先进的性能,并且胜过使用监督信号学习的模型。作为完全无监督的学习方法,CMLM 可以方便地扩展到广泛的语言和领域。我们发现,与位文检索(BR)和自然语言推断(NLI)任务共同训练的多语言 CMLM 模型在跨语言语义搜索等方面比以前最先进的多语言模型的基准模型有了很大的提高,例如改进了基准模型 10%。我们探索了学习表示的相同语言偏见,并提出了一种简单的,基于模型的方法来从表示中删除识别语言的信息,同时仍保留句子语义。
Dec, 2020
本文介绍了一种利用掩码语言建模来训练非自回归机器翻译模型的方法,并通过对多个数据集的实验验证,证明该方法在翻译质量和速度方面都优于现有的非自回归翻译模型,并且接近于左到右的变换器模型。
Apr, 2019
本文提出了 InforMask 方法,使用点互信息(PMI)来选择最具信息量的 tokens 进行蒙版,并进行两种优化以提高效率,该方法在 LAMA 和 SQuAD v1、v2 基准测试上明显优于随机蒙版和以前提出的蒙版策略。
Oct, 2022
本文研究了文本生成和填充相关的问题,设计并实现了一种基于自注意力和双向上下文建模的模型,并通过有监督的学习方法进行了实验验证。结果表明,该模型在文本填充任务上表现出色,为未来的相关研究提供了强有力的基线。
Jan, 2019