重新思考事实验证的损失函数
本文的 FEVER2.0 基准测试通过生成针对系统的对抗性攻击探索了 NN 模型在事实提取和验证任务中的鲁棒性,结果表明深度神经网络在处理 pattren 异常的样本时效果较差,提出对这类攻击进行研究有助于构建更健壮的事实检查模型,同时建议扩展数据集。
Mar, 2019
本研究探讨了当前的事实检查系统面临的挑战,介绍了一种新的对抗性数据集,并提出了一种新的系统来处理多种类型的谎言,通过多个指针网络进行文档选择,并联合建模一系列证据句子和真实性关系预测,具有更优异的证据检索表现。
Apr, 2020
在研究中,我们发现在常见的 FEVER 数据集中,仅针对声明的分类器与最佳证据感知模型具有相似的性能。为了解决这种现象,我们开发了一个评估集并引入了一种正则化方法以减少训练数据中偏差的影响,并取得了进展。该工作是朝着更加可靠地评估事实验证模型的推理能力迈出的一步。
Aug, 2019
本文研究事实检查问题,特别是 Fact Extraction and VERification (FEVER) 任务及其相关数据集。通过分析不同方法的技术视角和在 FEVER 数据集上的性能结果,我们描述了所提出的方法,重点讨论了句子检索部分的有益损失函数的识别,最终描述了未来研究的开放问题和挑战。
Oct, 2020
本文介绍了首个事实提取和验证(FEVER)共享任务的结果,该任务要求参与者使用从 Wikipedia 检索到的证据来判断是否可以支持或反驳人工编写的事实性声明。我们收到了来自 23 个竞争团队的条目,其中 19 个得分高于以前发布的基线。最佳表现系统的 FEVER 得分达到 64.21%。
Nov, 2018
本文介绍了一个新的公开可用的数据集 FEVER:事实提取和验证,它由 185,445 个主张组成,通过更改从维基百科中提取的句子并在不知道它们来自哪个句子的情况下进行验证。该数据集的挑战在于它的标注具有高度不确定性,作者开发了一种流水线方法对其进行测试,最佳的准确性达到了 31.87%。因此,FEVER 是一个具有挑战性的测试平台,可以帮助促进对文本来源的声明验证的进展。
Mar, 2018
构建一个可解释的事实验证系统在复杂的多跳场景中始终受到相关高质量数据集的缺失的阻碍。为了解决这个问题,我们提出了 EX-FEVER,一个用于多跳可解释事实验证的先驱数据集。我们的数据集包括超过 60,000 个主张,每个主张都涉及 2 跳和 3 跳推理,每个主张都有一个真实性标签和一个解释,概述了支持真实性分类的推理路径。
Oct, 2023
本研究针对 FEVER 事实抽取和验证挑战,探讨了使用预训练语言模型 BERT 实现证据检索和主张验证的方法,并使用 pointwise 和 pairwise 损失函数进行模型训练。实验结果表明,我们的系统在使用 50K Wikipedia 页面的 FEVER 文档进行前五个句子的检索时实现了 87.1 的最新召回率,并在官方排行榜中获得了 FEVER 得分 69.7 的第二名。
Oct, 2019
该论文提出了一个连接的系统,包括三个同构神经语义匹配模型,用于联合进行文献检索、句子选择和索证,以进行事实提取和验证。实验结果表明,该神经语义匹配方法在所有证据检索指标上都显著超越了常见的 TF-IDF 和编码器模型,并通过提供内部语义关联得分和词汇网特征等方法,改进了 NLI 模型的性能,从而在 FEVER 测试集上取得了最优结果。
Nov, 2018