ReFACT:通过编辑文本编码器更新文本到图像模型
我们提出了一种名为事实为本文本编辑的新任务,通过使用神经网络架构 FactEditor,其通过参考给定的知识库中的事实来编辑草稿文本,在实验中证明在忠实度和流畅性方面均优于编码解码模型,并且较编码器解码器方法具有更快的推理速度。
Jul, 2020
本文介绍 KnowledgeEditor 一种方法,用于编辑语言模型中的知识,以修复 “错误” 或意外预测,且不需要重新训练或以元学习为前提条件。作者使用受约束的优化来训练一个超网络,该超网络可预测权重更新。作者展示了 KnowledgeEditor 的有效性,其支持两种流行的体系结构和知识密集型任务:一种是针对事实核对进行细微调整的 BERT 模型,另一种是适用于问答的序列到序列 BART 模型。
Apr, 2021
利用生成式预训练模型合成高质量文本的出现,使得辨识生成文本中的事实错误面临挑战。本文提出了一种名为 FacTool 的任务和领域无关框架,用于检测大型语言模型(如 ChatGPT)生成文本中的事实错误,并在基于知识的问答、代码生成、数学推理和科学文献综述等四个不同任务上进行了实验证明了该方法的有效性。
Jul, 2023
本文提出了使用两阶段方法来重写包含大量文本的在线百科全书,通过识别和去除矛盾组件,并使用一种新颖的双编码器序列到序列模型进行扩展,以生成一致性更新的句子。实验结果表明,该方法成功地生成了新的索赔的更新语句,并通过增加重新编写的句子生成合成数据,从而成功地增加了 FEVER 事实检查培训数据集的相对误差降低了 13%。
Sep, 2019
该研究提出了一个基于自然语言的控制生成任务,可将一系列事实扩展为更长的叙述,并通过引入人类评估指标和大型训练数据集的方法评估了三种方法,证明了自回归的单向语言模型如 GPT2 的生成流畅度更好,但很难遵循所请求的事实,提出了一个基于计划和填空模型的解决方案(使用精细调整的 XLNet),其生成流畅度有竞争力,同时遵循所请求的内容。
Dec, 2020
该研究提出了一种基于模型的度量标准,用于评估生成的文本的事实准确性,并引入了一个新的基于维基百科和维基数据的大规模数据集来训练关系分类器和端到端事实提取模型。通过在维基百科文本摘要任务中分析多个模型的准确性并进行人类评估研究,论文展示了这些方法相对于 ROUGE 和其他无模型变量的方法的功效。
May, 2019
本文介绍了事实错误校正的任务和方法:通过编辑要求以便生成的改写通过证据更好地支持。使用 T5 Transformer 基于远程监督的方法,通过将证据合并到掩码声明中来训练事实错误校正系统。在一个基于最近事实验证共享任务的数据集上进行评估,结果表明我们的方法可以比现有的方法更准确地对事实错误进行校正,在人工评估中将错误校正的数量提高了 5 倍,并且 SARI 分数提高了 0.125。
Jun, 2021
本文介绍了一个新的任务:事实错误纠正。通过将证据整合到掩码声明中进行更正,学习纠正事实错误的系统。本文中提出了一个基于 T5 变压器的两阶段远程监督方法,通过检索证据获得更好的结果,从而取得了更好的性能,并通过人类评估证明了其有效性。
Dec, 2020
介绍了一种基于 Semi-Parametric Editing with a Retrieval-Augmented Counterfactual Model (SERAC) 的模型编辑方法,具备内存高、编辑表达能力强的特点,能够高效地处理基于问答、事实核查和对话生成的 3 种具有挑战性的语言模型编辑问题。
Jun, 2022
本论文提出了一种名为 Span-Fact 的技术,通过单一或多重遮盖策略,利用问题解答模型从系统生成的摘要中选择语义上一致且保留形式结构的实体,从而提高了系统生成的摘要的事实一致性和质量。
Oct, 2020