基于段落的科学事实验证多任务学习模型
MultiVerS 是一种用于科学论文中事实验证任务的 NLP 系统,其可以在多任务的方式下预测事实核查标签并确定每个标签的理由。
Dec, 2021
通过提取和融合来源摘要的相关证据理由,提出了一种调用二分类序列逐个进行预测子任务的模块化方法,从而实现科学主张的自动验证,包括验证支持和反驳证据,该方法名为 RerrFact,并平台竞争 SciFact 排行榜。
Feb, 2022
提出了一种基于机器阅读理解框架的 ARSJoint 方法,该方法可以联合学习三个任务模块,包括论文摘要检索、理由选择和立场预测,并通过提出在摘要检索的句子注意力分数和理由选择的预测输出之间的正则化项增强任务之间的信息互换和约束,实验结果在 SciFact 数据集上表现优异。
Sep, 2021
提供一种可以在序列结构上进行训练的模型,通过不同层次的句间注意力和联合训练来有效捕捉主张和证据之间的关系,结果表明可以优于基于图结构的方法达到更好的验证精度和 FEVER 得分
Jun, 2021
科学的论断验证是一个新的任务,其目的是从研究文献中选择包含支持或驳斥给定科学论断的摘要,并确定证据。为了研究这个任务,我们构建了 SciFact 数据集,其中包括 1.4K 个专家撰写的科学论断,以及用标签和论据注释的含有证据的摘要。我们开发了 SciFact 的基线模型,并证明简单的领域适应技术可以大大提高性能,并能够使用 CORD-19 语料库鉴定与 COVID-19 相关的声明。我们的实验表明,SciFact 将为设计用于检索和推理包含专业领域知识的语料库的新系统提供具有挑战性的测试平台。
Apr, 2020
通过使用多任务可解释的神经模型进行自动化的事实检验,本研究讨论了社交媒体上快速传播的虚假信息,并探究了深层神经模型在预测时所关注的要素,以寻求与人类推理相媲美的推理水平。
Feb, 2024
本文介绍了我们在 AAAI2023 的多模态事实验证(FACTIFY)挑战中的方法。我们提出了一个基于结构一致性的多模态事实验证方案来分类虚假新闻,通过随机森林分类器将特征进行合并并获得了 0.8079 的加权平均 F1 分数。
Mar, 2023
本文介绍 TabFact 数据集,其中包含 118k 人工标注的自然语言陈述,并以 16k 个 Wikipedia 表格作为证据,同时介绍了 Table-BERT 和 LPA,这两种算法都能在半结构化数据情况下进行事实验证,都有优点和不足之处,但是都能被进一步开发优化。
Sep, 2019