基于事实的文本编辑
本文介绍了事实错误校正的任务和方法:通过编辑要求以便生成的改写通过证据更好地支持。使用 T5 Transformer 基于远程监督的方法,通过将证据合并到掩码声明中来训练事实错误校正系统。在一个基于最近事实验证共享任务的数据集上进行评估,结果表明我们的方法可以比现有的方法更准确地对事实错误进行校正,在人工评估中将错误校正的数量提高了 5 倍,并且 SARI 分数提高了 0.125。
Jun, 2021
本文介绍了一个新的任务:事实错误纠正。通过将证据整合到掩码声明中进行更正,学习纠正事实错误的系统。本文中提出了一个基于 T5 变压器的两阶段远程监督方法,通过检索证据获得更好的结果,从而取得了更好的性能,并通过人类评估证明了其有效性。
Dec, 2020
本文提出了使用两阶段方法来重写包含大量文本的在线百科全书,通过识别和去除矛盾组件,并使用一种新颖的双编码器序列到序列模型进行扩展,以生成一致性更新的句子。实验结果表明,该方法成功地生成了新的索赔的更新语句,并通过增加重新编写的句子生成合成数据,从而成功地增加了 FEVER 事实检查培训数据集的相对误差降低了 13%。
Sep, 2019
本文介绍 KnowledgeEditor 一种方法,用于编辑语言模型中的知识,以修复 “错误” 或意外预测,且不需要重新训练或以元学习为前提条件。作者使用受约束的优化来训练一个超网络,该超网络可预测权重更新。作者展示了 KnowledgeEditor 的有效性,其支持两种流行的体系结构和知识密集型任务:一种是针对事实核对进行细微调整的 BERT 模型,另一种是适用于问答的序列到序列 BART 模型。
Apr, 2021
本研究通过提出一种交互式文本生成设置,在其中用户通过向系统发出编辑现有文本的命令与系统进行交互,来解决神经文本生成中一次生成的局限性,并介绍了一种新的文本编辑任务。通过使用 Wikipedia 中的单句编辑构成了一个名为 WikiDocEdits 的数据集,使用基于 transformer 的模型在其中进行训练以提高其自动产生的成果和用户评估结果。在此基础上,本研究分别从经验和定性分析方面展示了该模型的性能表现。
Oct, 2020
知识编辑目标是将知识更新注入语言模型中以保持其正确性和最新性。然而,当前的评估策略明显不实用:它们仅以精心策划的结构化事实(包含主语、关系和宾语的三元组)进行更新,而真实世界的知识更新通常出现在无结构的文本中,如新闻文章。本文提出一个新的基准,无结构知识编辑(Unstructured Knowledge Editing,简称 UKE),直接使用无结构的文本作为知识更新进行编辑性能评估,从而避免了繁琐的结构化事实构建,并实现了高效和响应性的知识编辑,成为一个更实用的基准。我们在新构建的数据集上进行了广泛的实验,并证明 UKE 对于最先进的知识编辑方法构成了重大挑战,导致它们的性能显著下降。我们进一步展示,即使将三元组提取为结构化事实,这个挑战仍然存在。我们的分析揭示了激励未来 UKE 研究的关键见解,以实现更实用的知识编辑。
Feb, 2024
ReFACT 是一种用于修正文本生成图像模型中的事实知识的方法,通过更新编码器中的特定层的权重来更新模型的部分参数,从而实现对相关概念的优化,同时保留不相关概念和图像生成质量。
Jun, 2023
该研究提出了一个基于自然语言的控制生成任务,可将一系列事实扩展为更长的叙述,并通过引入人类评估指标和大型训练数据集的方法评估了三种方法,证明了自回归的单向语言模型如 GPT2 的生成流畅度更好,但很难遵循所请求的事实,提出了一个基于计划和填空模型的解决方案(使用精细调整的 XLNet),其生成流畅度有竞争力,同时遵循所请求的内容。
Dec, 2020
FactCheck Editor 是一种先进的文本编辑器,旨在自动化事实核查和纠正事实错误。它支持超过 90 种语言,利用 Transformer 模型来协助人类进行劳动密集型的事实验证过程。该演示展示了一个完整的工作流程,检测需要验证的文本声明,生成相关的搜索引擎查询,并从网络检索适当的文档。它使用自然语言推理(NLI)来预测声明的真实性,并使用 LLMs 来总结证据,并提出修正文本中任何错误的文本修订建议。此外,还在多种语言上评估了用于声明检测和真实性评估的模型的有效性。
Apr, 2024
该研究提出了一种基于模型的度量标准,用于评估生成的文本的事实准确性,并引入了一个新的基于维基百科和维基数据的大规模数据集来训练关系分类器和端到端事实提取模型。通过在维基百科文本摘要任务中分析多个模型的准确性并进行人类评估研究,论文展示了这些方法相对于 ROUGE 和其他无模型变量的方法的功效。
May, 2019