Sep, 2023

语料库与知识库连接中的数据分布瓶颈

TL;DR语言模型在理解和生成自然语言和形式语言方面已经展示出了显著的能力。然而,它们与大规模知识库等真实环境的整合仍然是一个不发达的领域,影响着语义解析等应用,并导致 “幻觉” 信息的产生。本文是一项实验性研究,旨在揭示语言模型在知识库问答方面所遇到的鲁棒性挑战。研究覆盖了在训练和推理之间具有数据分布不一致的场景,例如对未见领域的泛化,适应各种语言变体,以及在不同数据集之间的可转移性。我们的综合实验揭示出,即使采用了我们提出的数据增强技术,先进的小型和大型语言模型在各个维度上表现出较差的性能。尽管语言模型是一项有前途的技术,但由于数据分布问题,目前形式的鲁棒性在处理复杂环境时是脆弱的且实用性有限。这要求未来在数据收集和语言模型学习范例方面进行进一步的研究。