IAM:一份全面的大规模数据集,用于集成化论证挖掘任务
通过引入一个涵盖辩论中各项任务的论证挖掘数据集,我们评估了多种生成基准模型,并发现虽然它们在个别任务上表现出有希望的结果,但在全部任务上的整体性能明显下降,这对于我们提出的数据集提出了挑战,需要进一步研究端到端的论证挖掘和概括。
Jun, 2024
我们介绍了 OpenDebateEvidence,这是一个从美国竞争辩论社区收集的全面的论点挖掘和总结数据集。该数据集包括超过 350 万个具有丰富元数据的文档,是最大的辩论证据集之一。OpenDebateEvidence 捕捉了高中和大学辩论中论点的复杂性,为训练和评估提供了宝贵的资源。我们的大量实验证明了对最新大型语言模型进行微调以进行论辩抽象总结的有效性,涵盖了各种方法、模型和数据集。通过提供这一全面的资源,我们旨在推动计算论证的发展,并支持辩论者、教育工作者和研究人员的实际应用。OpenDebateEvidence 已公开可用,以支持计算论证的进一步研究和创新。在此访问:this https URL
Jun, 2024
提出了一种名为 AutoAM 的新型神经模型,用于解决争论挖掘的困难问题。该模型引入了争论组件注意机制,能更好地执行争论挖掘,是一种通用的端到端框架,可以分析无约束的争论结构,并在一个模型中完成争论挖掘的三个子任务。实验结果表明,该模型在两个公共数据集上的多个度量指标上优于现有工作。
Sep, 2023
通过比较深度学习模型在论证挖掘中的性能,本研究提出了一种基于 BERT 架构和 ChatGPT-4 的集成模型 (BERT+ChatGPT-4),该模型在论证分类方面的表现优于其他基于 Transformer 和 LSTM 的模型,并为进一步提高论证分类模型和消除分类错误提供了重要的见解。
Mar, 2024
本文研究了神经技术在端到端的计算论证挖掘中的应用,将论证挖掘作为基于令牌的依赖解析和基于令牌序列标注的问题,包括多任务学习设置。研究发现,相比于在论证组件层次上操作的模型,将论证挖掘作为依赖解析的形式表现效果不佳;而基于双向长短时记忆网络的本地标注模型在分类场景下表现强劲,并能够捕捉到论证挖掘问题固有的远程依赖关系。另外,多任务学习可以改善模型表现。
Apr, 2017
该研究提出了 DebateSum 数据集,其中包含 187,386 个唯一的证据片段和相应的争论和抽取式摘要,使用多个 Transformer 摘要模型进行了训练,同时引入了在数据集上训练的 FastText 词向量 debate2vec。最后,该研究还提出了一个可以广泛运用于全国演讲和辩论协会成员中的 DebateSum 搜索引擎。
Nov, 2020
WIBA 是一个新框架和方法套件,能够全面理解在不同上下文中正在被争论的内容,通过 fine-tuning 和 prompt-engineering 的方法实现了三个任务的逻辑依赖的综合框架,包括检测争论的存在、主题和立场,在三个能力上表现良好。
May, 2024
该研究创建了适用于跨语种论证挖掘的平行语料库,并比较了注释映射和基于双语词嵌入的直接转移策略,发现前者表现更好且几乎消除了跨语种传递的损失。
Jul, 2018
基于生成式范式,本研究提出了一个统一的端到端框架,将论证结构构建为标签增强文本,称之为增强自然语言(ANL),并且通过探索不同类型标记的作用,将标记知识融入生成模型中,实现了与最新模型相媲美的成果并超过了几个基准结果。
Jun, 2024
评估当代大型语言模型(LLM)进行论证推理的能力,发现大语言模型在论证挖掘(AM)和论证对提取(APE)任务中表现出了能够匹配或超过最新技术的能力,但它们的论证推理性能非常依赖于输入和输出表示形式。
Sep, 2023