不同语篇注释框架之间的自动对齐
我们展示了讨论关系可以通过 Sanders 等人(2018)提出的一些简单的认知启发维度来有效地捕捉,通过这些维度,在框架之间传递讨论关系的知识是可能的,尽管两个框架在讨论划分上存在差异,这证明了这些维度在描述跨框架的讨论关系时的有效性,并通过消融实验揭示了不同维度对不同类型讨论关系的影响,并且我们还报告了关于这些维度的自动预测的实验结果。
Nov, 2023
研究了如何在缺乏话语连词的情况下进行隐含话语关系分类,设计了一种神经网络模型,通过预测和生成连词来实现话语关系的分类。实验结果表明,在 PDTB 2.0,PDTB 3.0 和 PCC 三个数据集上,该模型明显优于其他基线模型,从而表明了该模型的长处。
Jun, 2023
本文提出一个新的卷积神经网络嵌入多任务学习系统,用于综合 PDTB 语料库内多个特定于每个语料库的言语分类任务,并展示实验结果表明我们的模型可以显著提高 Implicit discourse relation classification 任务的性能。
Mar, 2016
本论文旨在设计用于开放领域对话系统的新型话语关系识别流水线,该流水线可以自动提取隐式话语关系参数对和标签,并通过削减特征和整合对话特征等方法来提高辨识度。论文使用对话转换数据集得到了独特的话语关系对语料库,首次尝试确定开放领域对话中连接对话转换的话语关系。
Jul, 2019
在我们的工作中,我们通过探索各种多标签分类框架来处理隐含语篇关系识别,并显示多标签分类方法不会降低单标签预测的性能。此外,我们对结果和数据进行了全面的分析。我们的工作有助于推动对语篇关系的理解和应用,并为未来研究奠定基础。
Jun, 2024
时间压力和话题协商对人们在即兴对话环境中利用话语关系(DRs)存在限制。本研究使用初学者注释的众包数据,将一种面向书面语的 DR 系统适应到即兴对话中,并测试不同类型的多发话语环境中的话语关系使用情况。我们比较说话者内部和跨说话者以及连续回合内部和跨连续回合的 DR 注释模式。最终,我们发现不同的话语环境产生不同的话语关系分布,而单个回合的注释给注释者带来最大的不确定性。此外,我们发现话语关系注释的质量足以从话语单位的嵌入中进行预测。
Jul, 2023
通过构建神经网络模型,模拟句子和段落之间的相互依赖和连续性,并能够连续预测段落中的语篇关系,从而提高隐含的语篇关系分类的效果,并在 PDTB 的基准语料库上取得了最佳性能。
Apr, 2018
基于 PDTB-3 数据集,通过对七个预训练语言模型的直接性能比较,我们的模型搜索将 SOTA 提高到了 0.671 的准确率,同时得到了一些新的观察结果,其中包括相对于之前的报道(Shi 和 Demberg, 2019b),句子级预训练目标(NSP,SBO,SOP)通常无法产生最佳性能的模型。反直觉的是,具有类似规模的 MLM 和全关注机制的 PLM 表现更好。
Jul, 2023