基于阅读理解的跨语言知识库问答
本论文提出了一种基于广义跨语言转移的框架,可以增强模型理解不同语言的能力,通过不同语言组成多语言知识三元组,并通过链接预测技术设计一种知识注入策略,从而深入挖掘丰富的语义知识;实验结果表明,该方法可以大幅提高性能。
Apr, 2023
本文比较了六个知识库问答系统在八个基准数据集上的表现,研究了各种问题类型、属性、语言和领域,提出了一个高级的映射算法来帮助现有模型取得更好的结果,并开发了一个 COVID-KGQA 的多语言语料库来鼓励 COVID-19 研究和多语言多样性的未来 AI,此外还讨论了主要发现及其影响、性能指南和一些未来改进。
Nov, 2022
通过与知识库进行直接交互生成逻辑形式,我们引入了 Interactive-KBQA 框架来解决知识库问答领域的问题,该框架包括三种通用 API 用于知识库交互,通过步骤推理过程注释数据集,展示了我们模型的适应性和潜力,并在低资源场景中以极少的示例达到了优秀的结果。
Feb, 2024
本文提出了一种基于 SPARQL 查询的多语言语义 Web 知识库问答(QA)方法,能够查询多个知识库,可轻松移植到其他知识库和语言。通过对五个不同的知识库和五种语言的评估,证明了该方法的影响。
Mar, 2018
通过使用跨语言开放检索问题回答,扩展多语言问答任务,解决信息匮乏和信息不对称问题。在 TyDi QA 上构建了一个大规模数据集,并建立了三个跨语言文档检索任务的基线。利用机器翻译系统和跨语言预训练模型,在实验中得出 XOR QA 是一个具有挑战性的任务,将促进多语言问答技术的开发。
Oct, 2020
该研究致力于针对电子商务应用中需要支持多语言的情况,建立一种跨语言的产品问答 (PQA) 系统,为了实现这一目标,它提出了一个包括 12 种语言在九个领域中的大规模标注跨语言 PQA 数据集,并评估了包括机器翻译在内的多种方法。作者强调,领域内的数据对跨语言排序任务非常重要,而候选的排序通常更喜欢基于运行时翻译的方法,而答案的生成更倾向于使用多语言方法,但是英语和跨语言测试集之间仍存在明显的性能差距。
May, 2023
该研究提出了一种基于 LLMs 的 McL-KBQA 框架,通过基于 ICL 的多选项将 LLMs 的 Few-shot 能力纳入 KBQA 方法,从而提高了 QA 任务的有效性和泛化性能。在两个 KBQA 数据集上的实验结果表明,McL-KBQA 具有竞争性的性能和强大的泛化性能。研究者期望从 LLMs 的角度探索 QA 任务的新方法,并获得规范和正确的答案和强大的泛化性。
May, 2023
本文提出了 xGQA,一个用于跨语言视觉问答任务的新的多语言评估基准,并使用适配器方法将多模型变换器模型扩展为多语言模型,结果表明简单的跨语言模型转移会导致多语言多模态失配,需要更复杂的方法来进行跨语言视觉和多语言语言建模
Sep, 2021
该研究提出了一个名为 MLQA 的多语言提取式问答(QA)评估基准,旨在推动跨语言 QA 研究。 MLQA 包含 7 种语言的 QA 实例,并使用一种新颖的对齐上下文策略,基于 Wikipedia 文章构建,以此作为现有提取式 QA 数据集的跨语言扩展。
Oct, 2019
FlexKBQA 是一种利用大型语言模型解决少样本知识库问答任务的方法,通过自动化算法从知识库中生成多样的程序,利用语言模型将其转化为自然语言问题。该方法还引入了执行引导自训练的策略来缓解合成数据和真实用户问题之间的分布差异,并利用大型语言模型的推理能力来增强整个框架。在 GrailQA、WebQSP 和 KQA Pro 上的实验证明,FlexKBQA 在少样本甚至零样本情景下,只需少量注释即可达到令人印象深刻的结果,超过了所有之前的基准,并且接近于监督模型的性能,相对于完全监督模型性能达到 93%。我们认为 FlexKBQA 在大型和轻量级模型的更好集成方面代表了重要进展。
Aug, 2023