通过结构化的注意力机制来获得文本的 RST 语篇树结构是一种学习蕴含语篇结构的潜在表示的有吸引力的替代方法。通过评估其他与语篇相关的任务和数据集后,我们发现这种方法并不能很好地捕捉文本的语篇结构,即使模型做了一些结构性的改进,也不能和基于现有语篇分析器的语篇依存树相提并论。最后,消融研究表明,结构化的注意力机制甚至有时会损害性能。
Jun, 2019
介绍了一种提高语言模型结构理解能力的方法,它通过预训练语言模型生成的结构来替代以往的基于任务数据的微调方式,并且在包含 28 个数据集的 10 个预测任务上实现了零样本迁移和超越了 21 个数据集的最新成果。
May, 2022
本文提出了一种基于图形表示的模型,并演示了我们不仅可以跨文档检索语义相似的信息,而且我们生成的嵌入空间也捕获了有用的语义信息,类似于仅适用于文本序列的语言模型。
Feb, 2022
本文研究利用 Rhetorical Structure Theory 和递归神经网络(使用新提出的 attention 机制)来加强文本分类的方法,实验结果表明其优势和劣势。
Feb, 2017
从无标注数据中预训练了一种能够包括来自整个文档的上下文信息的分层文档表示,包括定长的句子 / 段落表示,并应用于文档分割、文档级问答和抽取式文档摘要等方面取得了有效结果。
Jan, 2019
本文扩展了转换器模型,使其能够学习自然语言中的层次结构,得到了较好的无监督语法分析结果。
Mar, 2020
本文提出了一种基于树形结构的注意力神经网络模型,用于情感分类问题。该模型使用自下向上和自上而下的信息传播结合语法树中节点周围的结构信息。模型在构建句法树时,利用结构注意力识别最显著的表示。实验结果表明,该模型在斯坦福情感树库数据集上实现了最先进的性能表现。
Jan, 2017
本研究提出了一种新方法,使用情感分类的远程监督来生成丰富数据进行 RST 风格讨论结构预测,该方法结合了一种基于神经网络的多实例学习和一种 CKY-style 树生成算法,结果表明该解析器在跨领域讨论结构预测方面表现出色。
Oct, 2019
本论文通过在变分循环神经网络模型中引入结构化注意力层,以无监督学习的方式学习对话结构,并对多方对话数据集进行了实验,展示了模型区分发言人或地址、自动脱钩对话的能力。
Sep, 2020
本文通过探究无监督条件下对成分结构的学习,提出了使用一种技术从堆叠循环神经网络的推送行为中提取句法树,证明堆叠循环神经网络确实推断出了具有语言学相关的层次结构。