论样本量和话题规模对于论证挖掘数据集的影响
通过引入一个涵盖辩论中各项任务的论证挖掘数据集,我们评估了多种生成基准模型,并发现虽然它们在个别任务上表现出有希望的结果,但在全部任务上的整体性能明显下降,这对于我们提出的数据集提出了挑战,需要进一步研究端到端的论证挖掘和概括。
Jun, 2024
该研究使用多任务学习方法将不同的论证挖掘任务相结合,利用语义和逻辑结构的相似性来提高性能,从而揭示了论证挖掘任务之间的共性,为文本中论证技巧的提取提供了整体方法。
Jul, 2023
本文介绍了一个全面的、高精度的基于话语级查询的语料库广泛的 Argument Mining 系统,通过将适当索引的大型语料库上的句子级查询与迭代式注释方案结合起来,解决了数据中的固有标签偏差,标注手册所需的空间样本的区域,从而获得高精度的排名前几的候选项。
Nov, 2019
本文提出了一个全面而大型的数据集 IAM,旨在用于一系列论证挖掘任务。文集介绍了两个新的综合论证挖掘任务,即主张提取与立场分类(CESC)以及主张 - 证据对提取(CEPE)。实验结果表明了我们提出的任务的价值和挑战,并激励了论证挖掘领域的未来研究。
Mar, 2022
本研究探索了利用多语言 BERT 模型进行传输学习,以识别非英语语言中的论证挖掘任务。结果表明,机器翻译的质量对于论点立场和证据检测任务而言很好,但对于论证质量评估任务来说则不太适合。研究还展示了语言选择和它们之间的关系对结果模型的准确性产生了影响,并提供了一个多语言的人工数据集,以方便进行传输学习的效果评估。
Oct, 2020
我们介绍了 OpenDebateEvidence,这是一个从美国竞争辩论社区收集的全面的论点挖掘和总结数据集。该数据集包括超过 350 万个具有丰富元数据的文档,是最大的辩论证据集之一。OpenDebateEvidence 捕捉了高中和大学辩论中论点的复杂性,为训练和评估提供了宝贵的资源。我们的大量实验证明了对最新大型语言模型进行微调以进行论辩抽象总结的有效性,涵盖了各种方法、模型和数据集。通过提供这一全面的资源,我们旨在推动计算论证的发展,并支持辩论者、教育工作者和研究人员的实际应用。OpenDebateEvidence 已公开可用,以支持计算论证的进一步研究和创新。在此访问:this https URL
Jun, 2024
该研究提出了 DebateSum 数据集,其中包含 187,386 个唯一的证据片段和相应的争论和抽取式摘要,使用多个 Transformer 摘要模型进行了训练,同时引入了在数据集上训练的 FastText 词向量 debate2vec。最后,该研究还提出了一个可以广泛运用于全国演讲和辩论协会成员中的 DebateSum 搜索引擎。
Nov, 2020
评估当代大型语言模型(LLM)进行论证推理的能力,发现大语言模型在论证挖掘(AM)和论证对提取(APE)任务中表现出了能够匹配或超过最新技术的能力,但它们的论证推理性能非常依赖于输入和输出表示形式。
Sep, 2023
这篇研究探讨了基于计算语言学的辩论挖掘的方法,通过适应实践数据中的辩论现象和创建一个新的标准语料库以及使用几种机器学习方法来识别辩论组件,证明了在用户生成的网络话语中进行辩论挖掘是可行的但具有挑战性的任务。
Jan, 2016
提出一种新颖的可解释的主题增强的论证挖掘方法,通过使用神经主题模型和语言模型,在异构来源的数据中识别与核能相关的论证文本,并捕捉论证中句子级的主题信息。实验结果表明,该模型相比现有基准模型具有优越性。
Jul, 2023