基于预训练语言模型的句子嵌入中语义与句法的解耦
本文提出一种基于神经网络的生成模型,使用两个潜变量来表征句子的句法和语义,并通过训练多个损失函数来实现更好的语义和句法表征的分离,将其应用于句子相似性任务中,并发现该模型的语义和句法表征性能均最优且最为分离。
Apr, 2019
文章提出了一种新的基于 Transformer 模型的句法感知注意力层以及预训练任务,该模型可以从句法结构中获取信息来提高预训练模型在关系分类、实体类型标注和问答等任务中的表现。实验结果表明,该模型取得了当前最好的表现效果。
Dec, 2020
介绍了一种适用于高级自然语言处理的句子向量编码框架,该框架可以从编码器 - 解码器模型中提取具有相似向量表示的常见语义信息的句子 latents 表示。我们将句子表示的应用用于两个不同的任务 -- 句子复述和段落摘要,使其适用于常用的循环框架处理文本。实验结果有助于深入了解向量表示适用于高级语言嵌入。
Sep, 2018
该论文使用二进制掩码对预训练模型中不同层的输出进行切割,以解离 BERT 中的语义意义,而不更新预训练参数,从而产生解离的嵌入表示。使用二进制分类验证解离的嵌入的效果,判断两个不同句子中目标词的含义是否相同。实验结果表明,利用层次信息是有效的,而解离的语义意义进一步提高了性能。
Oct, 2023
利用大型预处理语言模型作为少型语义解析器,将输入 paraphrase 成类似英语的控制子语言,通过很少的数据和代码快速批量生成语义解析器,表现出令人惊讶的有效性,远超过基线方法。
Apr, 2021
本文分析了 BERT 在六种不同的任务中精细调整过程中所嵌入的句法树随着调整而演变的情况,结果表明编码的语法信息在不同任务的精细调整过程中被遗忘(词性标注)、强化(依存句法和组成成句)或保留(语义相关任务)。
Jan, 2021
本文定义了能够为句子产生分布的概率模型,最佳表现的模型将每个单词视为线性转换算子应用于多变量高斯分布,并通过从定义的模型中进行训练,演示了实现句子特定性的自然方式。虽然我们的模型是整体最佳表现的,但通过句子向量的范数表示来表示句子的特异性的简单架构也能够表现句子的特异性。质性分析表明,我们的概率模型捕获了句子涵盖并提供了分析单词特异性和精确性的方法。
May, 2020
本文提出了一种无需人工标注的数据集构建方法,使用双语文本语料来 fine-tune Transformer 语言模型,并加入一个循环池层构建出有效的特定语种句子编码器,该方法在单张图形卡上使用不到一天时间训练,在波兰语的八个语言任务上实现了高性能,超越了最好的多语言句子编码器。
Jul, 2022
本文提出了一种基于编码器 - 解码器的模型,名为 Syntactically controlled Paraphrase Generator (SynPG),它可以从未注释的文本集合中学习将一句话的语义和语法分离的能力,从而生成语法各异的释义,而无需使用大量注释的释义对。自动评价和人工评价的实验结果表明,该模型在语法控制方面的表现优于无监督基线,同时生成的释义的质量也具有竞争力。同时,经过充分的训练,该模型的性能与有监督模型相媲美,甚至更好,使其生成的语法受控释义可以用于数据增强,以提高 NLP 模型的健壮性。
Jan, 2021
本文提出了一种名为 Syntax-BERT 的新型框架,它可以有效地并高效地将句法树结构融入到基于 Transformer 的任何预训练模型中,并在多个先前的预训练模型上取得了稳定的性能提升,进一步证明了句法信息在 NLP 任务中的重要性。
Mar, 2021