本文提出了一种名为 Syntax-BERT 的新型框架,它可以有效地并高效地将句法树结构融入到基于 Transformer 的任何预训练模型中,并在多个先前的预训练模型上取得了稳定的性能提升,进一步证明了句法信息在 NLP 任务中的重要性。
Mar, 2021
本论文研究了通过将句法信息与深度学习模型相结合,提高自然语言处理任务的性能表现,对多特征的语法 - Transformer 进行了测试,发现在完整数据集和部分数据集中,BLEU 得分都有明显提升,同时,在 GLUE 基准测试中,语法嵌入的 BERT 微调在几个下游任务中表现优于基线。
Nov, 2019
本文研究如何将依存树信息合并到预训练的 Transformer 模型中以提高信息提取任务的性能,在语义角色标注和关系抽取任务上,采用两种相似但不同的模型设计策略,通过实证研究发现这些语法增强的 Transformer 模型的性能提高取决于依存关系解析的质量。
Aug, 2020
本文提出一种基于句法结构的局部语义注意力机制,将其与 BERT 等预训练语言模型相结合,提高对句子中句法相关词的关注度,在单句分类和序列标注等任务中实现了一致性增益。
Dec, 2020
本文研究了文本表示学习器在句法表现上的优越性和在自然语言句法中的应用,提出了将句法模型的预测注入 BERT 的知识蒸馏策略,并表明在一系列结构预测任务中,这种方法能够显著地减少相对误差。
May, 2020
本文分析了 BERT 在六种不同的任务中精细调整过程中所嵌入的句法树随着调整而演变的情况,结果表明编码的语法信息在不同任务的精细调整过程中被遗忘(词性标注)、强化(依存句法和组成成句)或保留(语义相关任务)。
Jan, 2021
本研究探讨了预训练数据大小对 RoBERTa 模型的句法能力及其在下游应用中的影响,并分析了训练此类模型的成本效益权衡。结果显示,虽然预训练数据大小的增加会显著提高模型的句法能力及在下游任务中表现,但这也带来了更高的经济和环境成本。
Sep, 2021
应用语言模型结构代替任务特定的监督并使用卷积图编码器通过显式引入语义解析提高 NLU 任务的性能。
本研究表明,通过在辅助目标中提供语言语法和训练 mBERT 以对通用依赖树结构进行编码,可提高跨语言转移,从而提高了在四项 NLP 任务中的性能表现。
Jun, 2021
ParaBART 是一个语义句子嵌入模型,使用基于源句子和目标释义之间语义相似性差异的语法指导解开基于预训练语言模型的嵌入中的语法和语义信息的工作。该方法在英语分析上表现出色,能有效的从语义句子嵌入中删除语法信息,提高对下游语义任务的鲁棒性。
Apr, 2021