将隐含的话语关系识别扩展到 PDTB-3
在我们的工作中,我们通过探索各种多标签分类框架来处理隐含语篇关系识别,并显示多标签分类方法不会降低单标签预测的性能。此外,我们对结果和数据进行了全面的分析。我们的工作有助于推动对语篇关系的理解和应用,并为未来研究奠定基础。
Jun, 2024
本文主要研究 PDTB-3 中数千种隐含话语关系的识别,特别是在句内隐含话语关系的识别和确定,并提出了基于模型的解决方案,并在不同情形下验证了模型性能,指出了局限性并探讨了未来的研究方向。
Apr, 2022
研究了如何在缺乏话语连词的情况下进行隐含话语关系分类,设计了一种神经网络模型,通过预测和生成连词来实现话语关系的分类。实验结果表明,在 PDTB 2.0,PDTB 3.0 和 PCC 三个数据集上,该模型明显优于其他基线模型,从而表明了该模型的长处。
Jun, 2023
本论文旨在设计用于开放领域对话系统的新型话语关系识别流水线,该流水线可以自动提取隐式话语关系参数对和标签,并通过削减特征和整合对话特征等方法来提高辨识度。论文使用对话转换数据集得到了独特的话语关系对语料库,首次尝试确定开放领域对话中连接对话转换的话语关系。
Jul, 2019
我们提出了一种将强大的上下文表示模块,双边多角度匹配模块和全局信息融合模块结合的新型模型,用于隐含语篇关系分类任务,并在 PDTB 数据集上比 BERT 和其他最先进系统的表现提高了约 8%,在 CoNLL 2016 数据集上提高了约 16%。我们还分析了不同模块在隐含语篇关系分类任务中的有效性,并展示了不同表示学习层次如何影响结果。
Apr, 2020
本研究探讨了一种模型,利用包括字符,子词,单词,句子和句对级别的不同粒度的文本表示来更好地表示文本,该模型在隐含关系识别中取得了 48% 以上的最新成果。
Jul, 2018
本文提出一个新的卷积神经网络嵌入多任务学习系统,用于综合 PDTB 语料库内多个特定于每个语料库的言语分类任务,并展示实验结果表明我们的模型可以显著提高 Implicit discourse relation classification 任务的性能。
Mar, 2016
基于 PDTB-3 数据集,通过对七个预训练语言模型的直接性能比较,我们的模型搜索将 SOTA 提高到了 0.671 的准确率,同时得到了一些新的观察结果,其中包括相对于之前的报道(Shi 和 Demberg, 2019b),句子级预训练目标(NSP,SBO,SOP)通常无法产生最佳性能的模型。反直觉的是,具有类似规模的 MLM 和全关注机制的 PLM 表现更好。
Jul, 2023
本文针对在语篇分析中最具挑战性和重要性的隐式语篇关系分类任务,通过开发连接词,采用回译技术增加训练数据来提高任务的性能,论文探讨了如何有效地利用不同语言的多种翻译来改善附加数据的质量的问题。
Aug, 2018