大型语言模型在学习长尾知识方面面临困难
通过预训练大型语言模型解决普适领域问答中的常见知识和罕见长尾知识学习难题,我们提出了一种自动生成专门用于长尾知识的问答数据集的自动方法,并展示了相关的研究挑战。通过预训练语言模型,在我们新生成的长尾问答数据集上进行了详尽实验,比较了其使用维基百科和维基数据知识图等外部资源的性能。
Mar, 2024
大型语言模型在各种自然语言处理任务中表现出色,但在处理需要广泛、现实世界知识的任务,特别是那些涉及长尾实体的任务时,仍然存在困难。为了解决这个问题,本研究分析了不同类型的非参数化知识对语言模型的影响,其中包括文本片段和知识图谱。通过创建一个需要长尾事实知识来回答问题的基准测试工具,我们评估了最先进的语言模型在不同知识环境下的表现。实验结果表明,单独使用语言模型来回答这些问题存在困难,特别是在需要大量长尾知识或丰富知识的情况下。然而,当为语言模型提供非参数化知识时,这些模型的性能显著提高。我们观察到,在大多数情况下,使用知识图谱三元组作为提示的语言模型表现优于使用最先进的检索器的段落提示。此外,虽然同时为语言模型提供知识图谱三元组和文档并不能始终改善知识覆盖率,但可以显著减少生成内容中的幻觉。
May, 2024
本文提出了一种基于语言模型的知识库完成方法,针对长尾实体的事实,该方法利用两个不同的语言模型进行候选检索和候选验证和消歧,通过评估我们的方法和不同的基线,引入一个名为 MALT 的基于 Wikidata 的数据集,我们的方法在 F1 中优于所有基线,尤其是在召回率方面有很大提升。
Jun, 2023
提出一种使用知识图谱扩展预训练文本到文本语言模型的方法,通过从知识图谱中提取子图,使用基于 Transformer 的模型线性化提取的子图并重新对答案候选项进行排序,使得预训练文本到文本语言模型的 Hits@1 评分提升 4-6%。
Oct, 2023
通过对预训练语言模型的深入分析,我们发现未经微调的 BERT 模型竞争传统 NLP 方法的关系知识,可以根据开放式关系进行查询,某些类型的事实知识比标准语言模型预训练方法更容易学习,并可以作为无监督的开放式 QA 系统的潜力展现。
Sep, 2019
通过研究大型语言模型的自身限制以及外部信息检索的有效性,本研究构建了一个新的问答数据集 WiTQA,以探索实体和关系的组合对于信息检索和知识回忆方面的影响,从而提出了一个基于实体和关系频率的自适应检索系统。
Feb, 2024
本文研究采用预训练的神经语言模型 Fine-tuning 技术回答问题,证实这种方法不需要额外的上下文或知识,并能有效解决竞争性问题。我们提供代码和训练的模型以促进可重复性和未来的工作。
Feb, 2020
大型语言模型在理解和生成复杂查询方面表现出了卓越的能力,但它们在存储、回忆和推理大规模结构化知识方面的有效性仍有待研究,本研究发现虽然大型语言模型有望作为大规模知识库灵活地检索和回答问题,但需要增强它们的推理能力以充分发挥潜力。
Feb, 2024
通过对半合成的传记数据进行深入研究,我们发现大语言模型的知识提取能力与训练数据的多样性之间存在着关联,同时通过 (几乎) 线性推测发现模型是否线性地编码实体名称的隐藏嵌入中的知识属性,或者在训练文本中其他标记的嵌入之间存在着强相关性。
Sep, 2023
我们在本文中提出了一种通过多任务监督预训练和密集检索系统的组合来实现对具有挑战性的复合问题的泛化的方法,并且展示了通过添加用于训练的检索增强数据集可以显著提高模型的性能。
Aug, 2023