大规模答题者用于视觉对话问题生成
本研究提出了一种新的信息理论策略: 基于该策略的 AQM 模型能有效地处理面向目标的对话任务, 尤其是在问答者句子序列学习方面的复杂性,与其他相比,经验证明 AQm 更胜一筹。
Feb, 2018
这篇研究论文介绍了一种基于大型语言模型的可伸缩的 AQA 数据生成流程 (AQUALLM 框架),利用现有的音频描述注释并结合最先进的语言模型生成了丰富、高质量的 AQA 数据集,同时提供了三个广泛和高质量的 AQA 基准数据集,该框架和数据集推动了 AQA 研究的进展,并且所训练的模型在性能上优于现有的最先进模型,而且相比人工注释的训练数据,本数据集上训练的模型表现出更强的泛化能力。
Dec, 2023
本研究提出了一个名为 BeamSearchQA 的新型问题回答管道,它通过使用大型语言模型迭代地生成关于原始问题的新问题,从而启用一个迭代推理过程,以便更好地捕捉和利用隐藏知识。实验结果表明,BeamSearchQA 明显优于其他零 - shot 基线,在处理开放性领域问题回答方面具有很强的有效性。
May, 2023
本文提出了一个基于会话的视觉问答框架,包括三个组件:问话者,Oracle 和答案者,其中 ACVRM 用于答案者。通过对过程进行模拟,作者对每个问题建立了一个 SQS 来进行监督学习,实验结果表明这种方法在 VQA-CP v2 上实现了最新颖的性能。
Apr, 2022
本论文中,我们提出了 WebQA,它引入了一个具有挑战性的新测量标准,该标准涉及大规模最先进模型的困难之处,缺乏新颖对象的语言基础视觉表达和推理能力,但对人类来说却很简单。我们的社区挑战是创建统一的多模态推理模型,这些模型可以回答问题,而不考虑源模态,从而使我们更接近不仅查询语言知识,而且查询更丰富的视觉在线世界的数字助手。
Sep, 2021
在多智体环境中,通过多个大型语言模型代理独立回答用户查询以产生鲁棒性答案,并使用中心答案模型进行聚合,结果显示比其他聚合方法(如投票方案和辩论)具有 50% 更高的准确率。此外,通过排列特征重要性方法进行关键特征分析,量化了中心答案模型对每个独立代理和查询上下文的依赖性。
Jun, 2024
开放领域问答(ODQA)作为信息系统中的关键研究领域已经崛起。现有方法采用两种主要范式来收集证据:(1)“先检索然后阅读” 范式从外部语料库中检索相关文档;(2)“先生成然后阅读” 范式使用大型语言模型(LLMs)生成相关文档。然而,两者都无法完全满足证据的多方面需求。因此,本文提出了 LLMQA,一种通用框架,将 ODQA 过程分为三个基本步骤:查询扩展、文档选择和答案生成,结合了基于检索和基于生成的证据的优势。由于 LLMs 展示了在各种任务中表现出的出色能力,我们在框架中指导 LLMs 担任多个角色,作为生成器、重新排序器和评估器,集成它们在 ODQA 过程中的协作。此外,我们引入了一种新颖的提示优化算法,以改进角色扮演提示,引导 LLMs 生成更高质量的证据和答案。在广泛使用的基准测试(NQ、WebQ 和 TriviaQA)上进行的大量实验结果表明,LLMQA 在答案准确性和证据质量方面达到了最佳表现,展示了其推进 ODQA 研究和应用的潜力。
Mar, 2024
本文介绍了一个名为 “MultiModalQA (MMQA)” 的数据集,该数据集需要通过对文本、表格和图像的联合推理来回答问题。作者还创建了一个新框架来生成复杂的多模态问题,并演示了多模态多跳方法在解决这一任务中的必要性。
Apr, 2021
文章介绍了一种将 Abstract Meaning Representation 引入 Pretrained Language Models 中的方法 Graph-as-Token(GST),用于提高 Open-Domain Question Answering 任务的性能。实验结果表明,该方法能显著提升系统的性能,并且在集成 AMRs 方面优于替代的 Graph Neural Network 方法。
May, 2023