文本分类的神经话语结构
通过结构化的注意力机制来获得文本的 RST 语篇树结构是一种学习蕴含语篇结构的潜在表示的有吸引力的替代方法。通过评估其他与语篇相关的任务和数据集后,我们发现这种方法并不能很好地捕捉文本的语篇结构,即使模型做了一些结构性的改进,也不能和基于现有语篇分析器的语篇依存树相提并论。最后,消融研究表明,结构化的注意力机制甚至有时会损害性能。
Jun, 2019
利用 Rhetorical Structure Theory (RST) 树和关系对话语连贯性进行评估,表明在分类连贯性方面增加银标准 RST 特征可以提高准确性,我们开发了一个 tree-recursive neural model,即 RST-Recursive,利用了由最先进的 RST 解析器产生的文本 RST 特征。在 Grammarly Corpus for Discourse Coherence (GCDC) 上评估我们的方法,并展示了当与现有先进技术结合使用时,我们可以在此基准测试中实现新的技术水平的准确性。此外,单独部署时,RST-Recursive 具有竞争性的准确性,同时参数减少了 62%。
Sep, 2020
研究了通过利用多语言向量表示和采用源内容的分段级别翻译建立神经交叉语言篇章分析器的两种方法,并表明这两种方法即使在有限的训练数据下也有效,并且在所有子任务上实现了跨语言、文档级的篇章分析性能。
Dec, 2020
基于修辞结构理论的话语解析(RST-DP)探索了子句、句子和大文本跨度如何组成整个话语,并将修辞结构呈现为一个分层树。现有的 RST 解析流水线在构建修辞结构时缺乏对文档级内容结构的了解,导致在预测大文本跨度的话语关系时性能相对较低。为了识别高级内容相关信息在促进话语关系识别方面的价值,我们提出了一种新颖的 RST-DP 流水线,该流水线结合了从新闻话语建模任务中得出的具有结构意识的新闻内容句子表示。通过仅添加了少量的附加层,这个增强的流水线在各种 RST 解析指标上表现出了很有前景的性能。
Sep, 2023
这篇论文提出了一个简单但高精度的 RST 语篇分析器,采用最近的上下文语言模型,表现出两个重要数据集,RST-DT 和 Instr-DT 的最新技术性能。研究人员还表明,在最近可用的大规模 “银标准” 话语树库 MEGA-DT 上预训练我们的分析器可以提供更大的性能改进,这为话语分析领域提供了一种新的有前途的研究方向。
Nov, 2020
通过分析语篇结构中的修辞元素,文献使用的修辞结构理论 (RST) 解析器可以提高情感分析的准确性;该文献使用基于依存关系的位置调整方法和基于 RST 结构的递归神经网络模型分别取得了显著的效果提升。
Sep, 2015
本文提出一种基于自上而下的神经网络结构,将话语的分层结构解析为分裂点排序任务,并在英文 RST-DT 语料库和中文 CDTB 语料库上进行实验,证明了该方法在文本级语篇分析中的高效性。
May, 2020
本文提出了一个新型的文本摘要模型,RSTformer,综合考虑了修辞关系的类型和不确定性,采用基于文档级修辞结构的 RST-attention 机制,取得了显著的性能优势。
May, 2023
使用神经框架和指针网络,基于 Rhetorical Structure Theory (RST) 的句子级别的语篇分析提出了一种高效的分析方法。基于分段器和分析器的性能表现显示出此方法具有优势且逼近人类认知水平。
May, 2019
本文描述了一种 RST 分割和解析系统,该系统可以快速、稳健地处理新闻文章或文章等短文档,并将各种先前工作的模型和特征集进行了适应,其准确性接近于最先进的水平。
May, 2015