探测争议论述中的攻击性语句
该文章介绍了一种名为 LPAttack 的新注释方案,其捕捉到攻击中的常见模式和复杂的修辞手法,以及它们中的隐含前提和价值判断,该注释研究表明提出的方案的人类注释是可行的,并公开发布了其注释语料库和注释指南。
Apr, 2022
本文通过对 Hateval 语料库进行人工标注并评估,探讨了大型语言模型中关于憎恨言论的论述元素自动识别的可靠性,发现某些元素相对可靠,对于那些错误率较高的元素,其争议点分析和适当调整后能够更为可靠的识别。
Jun, 2023
本研究旨在通过自动提取社交媒体对话中的论点,计算其之间的相似度以识别和归纳辩论方面,从而产生类似于辩论网站上的自动摘要。结果表明,在三个不同的辩题上,本研究的相关性平均值为 0.63,优于几个基准模型。
Sep, 2017
本文研究基于 NLP 和大量文本数据得到的自动化 argument mining,评估 argument 质量估计对于不同领域的通用性、与相关 argument mining 任务的相互作用以及情感对于观察到的 argument 强度的影响。作者发现不同领域的训练数据可以提高质量估计的泛化能力,在零样本迁移和多任务实验中,argument quality 在多个方面都能够得到改善,而情感对 argument quality 的影响不如人们普遍认为的那样大。
May, 2022
提出一种新颖的可解释的主题增强的论证挖掘方法,通过使用神经主题模型和语言模型,在异构来源的数据中识别与核能相关的论证文本,并捕捉论证中句子级的主题信息。实验结果表明,该模型相比现有基准模型具有优越性。
Jul, 2023
本研究提出了 ArgTersely 基准和 Arg-LlaMA 模型,使用基于 BERT 的 Arg-Judge 评估器进行了高质量句级反驳生成任务的实验,在与其他基线模型比较中展示了该框架和评估器的竞争力。
Dec, 2023
本研究介绍了如何利用 LambdaMART 排名算法和特征类型信息来检测来自相关文档的用户声明的句子级支持论点,实验结果表明使用特征类型信息的 LambdaMART 排名器优于没有使用类型信息的排名器。
Apr, 2017
本文介绍了一个新颖的框架,使用归纳逻辑编程方法来以可解释的方式学习几个抽象和结构化的论证框架的可接受语义。通过实证评估,我们证明了我们的框架胜过现有的论证求解器,从而在形式论证和人机对话领域开启了新的未来研究方向。
Oct, 2023
本研究使用四种基于逻辑和理论的机制 (实际一致性、情感一致性、因果关系和规范关系) 对两个陈述之间的论证关系进行分类,证明有效地利用这些逻辑机制能够显着提高无监督贝叶斯分类器的性能,并且使用表示学习进一步改进了有监督的分类器。
May, 2021