多方对话语篇分析的深度顺序模型
通过构建神经网络模型,模拟句子和段落之间的相互依赖和连续性,并能够连续预测段落中的语篇关系,从而提高隐含的语篇关系分类的效果,并在 PDTB 的基准语料库上取得了最佳性能。
Apr, 2018
本文介绍了一种自动语篇处理方法 ——Questions Under Discussion(QUD),采用了一种新的语言框架,通过大数据集训练 QUD 解析器从而可以获得强大的性能,同时通过 QUD 分析可以实现文档简化。
Oct, 2022
本研究提出了一种基于 transformers 的新方法,通过对不同级别单元的上下文化表示进行编码,动态捕捉对话依赖分析所需的信息,并将对话关系识别视为序列标记任务
May, 2022
使用神经框架和指针网络,基于 Rhetorical Structure Theory (RST) 的句子级别的语篇分析提出了一种高效的分析方法。基于分段器和分析器的性能表现显示出此方法具有优势且逼近人类认知水平。
May, 2019
本文介绍了一种 Transformer 模型,可以应用于多方对话语篇分析,并结合三种方法,实现跨领域数据泛化,以提高神经网络解析器在跨域对话样本中的表现。
Oct, 2021
通过无监督学习的隐式树归纳框架,提出了一种新的策略来生成结构化的文本,例如语法分析、话语分析等,以及更倍覆盖的话语树库,并在多个领域中展示了具有前景的结果。
Dec, 2020
本文研究基于 Pre-trained Language Models (PLMs) 的注意力矩阵构建对话结构的方法,提出了一种无监督和半监督的方法来定位和利用 PLMs 中的语篇信息,并在 STAC 语料库上获得了令人鼓舞的结果。
Feb, 2023
深度是一个编码器 - 解码器模型,通过在预训练过程中引入面向语篇的目标来提高语言模型在语篇层面上的理解能力。通过结合层次化的句子表示和两个目标:句子重排和跨度破坏,深度能够更快地学习语义和语篇级别的表示,从而拓展了 T5 在语篇能力方面的表现。
May, 2024
本研究使用 Tree-LSTM 模型和 Tree-GRU 模型将句法分析树加入神经网络以编码关系中的参数,同时利用组成标记控制这些树状神经网络中的语义组合过程,实验结果表明我们的方法在 PDTB 语料库中达到了最先进的性能。
Mar, 2018