使用 BERT 和基于自注意机制的嵌入进行论点挖掘
本文提出了一种新的句子注释方案,用于在任意网络文本上进行争议搜索的分析,得到的神经网络模型在准确度和 F1 分数上均优于传统的双向 LSTM 模型。
Feb, 2018
本文对传统词嵌入模型与 BERT 模型在人权法庭裁决文本的法条分析任务中的表现进行了比较,实验证明领域特定的 BERT 模型有很大的潜力,而传统的词嵌入模型在与神经网络层结合后也能表现出很强的性能。
Feb, 2022
提出了一种名为 AutoAM 的新型神经模型,用于解决争论挖掘的困难问题。该模型引入了争论组件注意机制,能更好地执行争论挖掘,是一种通用的端到端框架,可以分析无约束的争论结构,并在一个模型中完成争论挖掘的三个子任务。实验结果表明,该模型在两个公共数据集上的多个度量指标上优于现有工作。
Sep, 2023
本研究提出了一种新的因子图模型,用于处理不一定形成树结构的文本论述关系,可以学习最基本的单元分类和论证关系预测,支持 SVM 和 RNN 参数化,可以强制执行结构约束并表示相邻关系和命题之间的依赖关系,并在网络评论和论辩文章数据集上优于非结构化基准线。
Apr, 2017
本文提出了一种计算模型,该模型结合了微观层面和宏观层面的论证模型,基于 Rhetorical Structure Theory 利用上下文信息来预测关系,使用候选选择方法自动预测讨论中被其他参与者针对的论点,其结果优于最新的 state-of-the-art 方法。
Apr, 2020
本研究提出了一种基于社交讨论的无监督学习策略,使用已预训练的语言模型,选择性地使用掩码语言模型任务进行微调,并引入了一种基于提示的策略,在将被提取的论点组件之间预测关系时支持上下文语境,此方法表现出了在本领域和跨领域数据集上超越了多个现有的和强基线模型的潜力。
Mar, 2022
该研究使用了 US2016 辩论语料库来训练基于 Transformer 模型的种类,以推测不同参数下论据的关系,最终在五个不同领域中评价模型的性能,得出了极高的 F1 得分,并确定了相对不依赖特定领域的模型。
Nov, 2020
本文研究了神经技术在端到端的计算论证挖掘中的应用,将论证挖掘作为基于令牌的依赖解析和基于令牌序列标注的问题,包括多任务学习设置。研究发现,相比于在论证组件层次上操作的模型,将论证挖掘作为依赖解析的形式表现效果不佳;而基于双向长短时记忆网络的本地标注模型在分类场景下表现强劲,并能够捕捉到论证挖掘问题固有的远程依赖关系。另外,多任务学习可以改善模型表现。
Apr, 2017
本研究使用 ELMo 和 BERT 作为最新的上下文化词嵌入方法,在开放领域的论据搜索中进行了实验。我们首次展示了如何利用上下文化词嵌入的能力,对主题相关的论据进行分类和聚类,并在多个数据集和任务中取得了令人印象深刻的结果。
Jun, 2019
通过比较深度学习模型在论证挖掘中的性能,本研究提出了一种基于 BERT 架构和 ChatGPT-4 的集成模型 (BERT+ChatGPT-4),该模型在论证分类方面的表现优于其他基于 Transformer 和 LSTM 的模型,并为进一步提高论证分类模型和消除分类错误提供了重要的见解。
Mar, 2024