自动基于事实的句子修改
我们提出了一种名为事实为本文本编辑的新任务,通过使用神经网络架构 FactEditor,其通过参考给定的知识库中的事实来编辑草稿文本,在实验中证明在忠实度和流畅性方面均优于编码解码模型,并且较编码器解码器方法具有更快的推理速度。
Jul, 2020
本文介绍了事实错误校正的任务和方法:通过编辑要求以便生成的改写通过证据更好地支持。使用 T5 Transformer 基于远程监督的方法,通过将证据合并到掩码声明中来训练事实错误校正系统。在一个基于最近事实验证共享任务的数据集上进行评估,结果表明我们的方法可以比现有的方法更准确地对事实错误进行校正,在人工评估中将错误校正的数量提高了 5 倍,并且 SARI 分数提高了 0.125。
Jun, 2021
本文介绍了一个新的任务:事实错误纠正。通过将证据整合到掩码声明中进行更正,学习纠正事实错误的系统。本文中提出了一个基于 T5 变压器的两阶段远程监督方法,通过检索证据获得更好的结果,从而取得了更好的性能,并通过人类评估证明了其有效性。
Dec, 2020
本文介绍了一种新的生成任务 FRUIT,其目标是在给定新证据的情况下更新现有文章,为此我们发布了 FRUIT-WIKI 数据集并提供了基准结果和 EDIT5 等新方法。通过分析我们发现发展能够忠实地更新文章的模型需要新的神经生成模型能力,并且这种方法有许多新的应用领域。
Dec, 2021
介绍了一种基于离线强化学习的查询重写策略,以帮助事实核查员在多个社交媒体平台上进行有效的搜索,实验证明该方法能够将查询的效力相对提高达 42% 同时也具有可读性。
Oct, 2022
该研究提出了一个基于自然语言的控制生成任务,可将一系列事实扩展为更长的叙述,并通过引入人类评估指标和大型训练数据集的方法评估了三种方法,证明了自回归的单向语言模型如 GPT2 的生成流畅度更好,但很难遵循所请求的事实,提出了一个基于计划和填空模型的解决方案(使用精细调整的 XLNet),其生成流畅度有竞争力,同时遵循所请求的内容。
Dec, 2020
提出了一种使用外部来源进行全自动事实核查的通用框架,该框架利用深度神经网络和 LSTM 文本编码结合任务特定的嵌入来判断声称的真实性,并将来自 Web 的相关文本片段融合其中,考虑其来源可靠性,在两个任务和数据集上均表现不错。
Oct, 2017
利用循环神经网络的序列到序列模型,结合注意力选择 Wikidata 中的事实并生成与之相关的维基百科传记句,模型通过人类偏好评估接近于维基百科参考水平,并且通过分析内容选择,模型可以在推断知识和错觉错误信息之间进行折中。
Feb, 2017
该研究提出了一种基于模型的度量标准,用于评估生成的文本的事实准确性,并引入了一个新的基于维基百科和维基数据的大规模数据集来训练关系分类器和端到端事实提取模型。通过在维基百科文本摘要任务中分析多个模型的准确性并进行人类评估研究,论文展示了这些方法相对于 ROUGE 和其他无模型变量的方法的功效。
May, 2019
本研究通过提出一种交互式文本生成设置,在其中用户通过向系统发出编辑现有文本的命令与系统进行交互,来解决神经文本生成中一次生成的局限性,并介绍了一种新的文本编辑任务。通过使用 Wikipedia 中的单句编辑构成了一个名为 WikiDocEdits 的数据集,使用基于 transformer 的模型在其中进行训练以提高其自动产生的成果和用户评估结果。在此基础上,本研究分别从经验和定性分析方面展示了该模型的性能表现。
Oct, 2020