自动化生成证明(说明为何某主张被分类为真或假)的过程在抵制虚假信息方面起到重要作用,这篇论文针对无结构知识(如新闻文章)的摘要方法进行了实验证明,结果显示,通过基于主张信息的抽取步骤改善摘要性能可以从证明生成摘要中获益。
Aug, 2023
本文综述了自动事实检查中解释功能的现有方法,分析了好的解释特性,并描述了相关的进一步研究方向。
Nov, 2020
该研究是针对需要特定专业知识的领域的事实核查的第一项探索性研究,提出了可解释的事实核查模型,并针对公共卫生领域构建了一个新的数据集进行案例研究,结果表明,通过对特定领域的数据进行训练,可以提高自动化事实核查的可解释性。
Oct, 2020
本文提出了采用反事实解释的方法,通过三步:提问,寻找矛盾,合理推理,来让读者理解为什么一个特定新闻被认定为虚假,通过在 FEVER 数据集的实验评估表明,这种方法相比于现有成果更具有帮助性。
Jun, 2022
通过使用大型语言模型,我们研究了人工筛选与机器选择证据对解释生成的影响,发现大型语言模型使用机器选择的证据生成的解释质量相似或更高,表明精心策划(通过人工)的证据可能不是必需的。但即使使用最佳模型,生成的解释有时也不忠实于来源,因此在事实核查的解释生成方面仍有改进的空间。
Jun, 2024
本文综述了基于自然语言处理的自动事实核查技术及其在相关学科里的应用。该技术使用自然语言处理、机器学习、知识表示和数据库等技术预测声称的可信度,同时介绍了现有数据集和模型,旨在统一各种定义并识别通用概念,最后提出了未来研究的挑战。
Aug, 2021
本文通过统一任务格式和方法论,对自然语言处理等多个领域的自动事实核查研究进行了综述,重点强调了证据在这一领域的重要性,并提出了未来研究的方向。
Jun, 2018
本文研究了自动事实检查的问题,关注上下文和语篇信息的影响。研究并解决了两个相关任务:检测与检查有关的声明以及检查有关的声明。开发了基于神经网络、基于内核的支持向量机和两者组合的监督系统,在输入表示方面使用了丰富的话语线索和上下文特征。从政治辩论中着重关注可检查性估计任务,并在辩论的整个干预、前面和后续转变的语境中对目标声明进行建模,考虑语境元信息。从社区论坛中关注答案验证的事实检查任务,并将答案的真实性与其所在的整个问题 - 答案线程以及来自整个论坛的其他相关帖子的真实性进行建模。我们为两个任务开发了注释数据集,并进行了广泛的实验评估,确认两种信息 (尤其是上下文特征) 发挥重要作用。
Aug, 2019
本文介绍了一个用于事实核查的自动化平台,该平台能够检索相关文本证据,预测每个证据是否支持或反驳一个声明,并返回最终结论。此外,本文还对这个平台在新闻工作流中的应用进行了用户研究,并为其性能作出了评估。结果表明,该平台的预测正确率为 58%,返回的证据中有 59%是相关的。
Apr, 2019
本文介绍自动事实核查在互联网内容管理中的重要性,提出了面向缺陷的事实核查任务并引入了专门设计的框架 RefuteClaim,通过提取和转换专家审查的见解,创造了用于该任务的数据集 FlawCheck,并实验证明了 RefuteClaim 在分类和阐明虚假主张方面的有效性。
Jan, 2024