结构化对话篇章分析
本文提出了一种深度顺序模型,用于解析多方对话的话语依赖结构,并利用预测的依赖关系和结构类型共同和交替地构建话语结构,实现基于序列扫描的话语依赖树构建。实验结果表明,该模型的性能优于所有最先进的基线。
Dec, 2018
通过结构化的注意力机制来获得文本的 RST 语篇树结构是一种学习蕴含语篇结构的潜在表示的有吸引力的替代方法。通过评估其他与语篇相关的任务和数据集后,我们发现这种方法并不能很好地捕捉文本的语篇结构,即使模型做了一些结构性的改进,也不能和基于现有语篇分析器的语篇依存树相提并论。最后,消融研究表明,结构化的注意力机制甚至有时会损害性能。
Jun, 2019
本文研究基于 Pre-trained Language Models (PLMs) 的注意力矩阵构建对话结构的方法,提出了一种无监督和半监督的方法来定位和利用 PLMs 中的语篇信息,并在 STAC 语料库上获得了令人鼓舞的结果。
Feb, 2023
通过主题分割和话语解析,我们提出了一种无监督的两种结构的互学习框架,以实现对话系统的全局目标和话语策略的一致性。实验结果表明,我们的方法在两个对话话语数据集(STAC 和 Molweni)以及对话主题数据集(Doc2Dial 和 TIAGE)上优于所有强基准模型。
May, 2024
本文针对多方对话中的混杂对话结构特点,提出使用讲话人属性和参考依赖两方面的结构信息来解决对话概要理解问题,并在 Ubuntu IRC 测试数据集上取得最新的最佳效果。
Oct, 2021
使用神经框架和指针网络,基于 Rhetorical Structure Theory (RST) 的句子级别的语篇分析提出了一种高效的分析方法。基于分段器和分析器的性能表现显示出此方法具有优势且逼近人类认知水平。
May, 2019
本文提出了一种基于异构图表示的对话解缠方法,构建了不同的讨论结构特征模型,包括静态发言角色结构和动态背景结构,并采用层级排名损失和易于首先解码算法来实现话语理解和分离。
Jun, 2023
本文介绍了一种 Transformer 模型,可以应用于多方对话语篇分析,并结合三种方法,实现跨领域数据泛化,以提高神经网络解析器在跨域对话样本中的表现。
Oct, 2021
基于修辞结构理论的话语解析(RST-DP)探索了子句、句子和大文本跨度如何组成整个话语,并将修辞结构呈现为一个分层树。现有的 RST 解析流水线在构建修辞结构时缺乏对文档级内容结构的了解,导致在预测大文本跨度的话语关系时性能相对较低。为了识别高级内容相关信息在促进话语关系识别方面的价值,我们提出了一种新颖的 RST-DP 流水线,该流水线结合了从新闻话语建模任务中得出的具有结构意识的新闻内容句子表示。通过仅添加了少量的附加层,这个增强的流水线在各种 RST 解析指标上表现出了很有前景的性能。
Sep, 2023
本文提出了一种新的对话结构学习框架 CTRLStruct,该框架利用双向变压器编码对话文章,进一步通过对比学习任务训练来提高表示力,利用无标签信息有效地探索主题级对话集群及其转换,形成对话结构图,最终将该图结合到对话模型中进行生成,以实现更可控、可解释的响应生成。在两个受欢迎的开放领域对话数据集上进行实验,结果表明该模型可以生成比某些优秀对话模型更连贯的响应,并在对话话语表示中优于一些典型的句子嵌入方法。
Mar, 2023