多数据集问答的单数据集专家
本研究提出了一种灵活和高效的架构,旨在通过考虑问题、回答预测和置信度得分来从候选答案中选出最佳答案,将专家代理与该架构相结合,从而在多域和多数据集方案中实现了先前的多代理和多数据集方法所不能达到的表现。
Dec, 2021
该研究提出了一项新的任务,以鼓励模型跨多个文档进行文本理解并探究现有方法的限制。 该任务要求模型学习查找和组合证据,从而实现多跳(别名为多步)推理,但两个先前的竞争性模型都在选择相关信息方面遇到了困难。
Oct, 2017
本文通过评估五个数据集上的基于 BERT 的模型来研究模型是否从问答数据集中学习阅读理解,发现没有一个数据集能够具备全部实验的鲁棒性,并且发现了数据集和评估方法的不足,最后建议构建更好的 QA 数据集以评估阅读理解任务的问答能力。
Apr, 2020
本文研究阅读理解(RC)数据集之间的通用性和现有数据集对提高新数据集表现的贡献,使用 Bert 等上下文表示方法,证明在一个或多个数据集上训练,并在目标数据集上进行转移学习可以显著提高 RC 表现,同时发现在多个来源 RC 数据集上训练可以降低新 RC 数据集的示例收集成本,并提出了基于 MultiQA 的模型,取得了五个 RC 数据集的最先进的表现。
May, 2019
该论文介绍了一个针对较小数据集的任务感知专家网络混合模型,重点研究常识学习问题,并通过训练不同的专家网络来捕获每个段落、问题和选项三元组之间不同类型的关系,同时灵感来自多任务和迁移学习的最新进展。通过将多个网络融合,强制实现它们的特定目标和关系,作者达到了最先进的结果并减少了过拟合。
Oct, 2022
探索一种强大的问答系统的模型体系结构,其中使用了 Mixture-of-Experts 模型来训练具有更好鲁棒性的多任务学习器,该模型还使用了 DistilBERT 来生成问题向量;数据增强技术包括 Easy Data Augmentation (EDA) 和 back translation。通过这些方法,所提出的模型在严格的测试中实现了 53.477 F1 分数,比基线模型提高了 9.52%。该研究成功地证明了 Mixture-of-Expert 体系结构在 Robust QA 任务中的有效性。
Mar, 2022
构建一个通用检测器的关键问题是如何在大量混合数据集上最有效地训练模型?答案在于学习数据集特定的特征并将它们的知识组合在一个单一模型中。我们提出了一种解决方案,即基于数据集的专家混合模型 (DAMEX),通过训练专家成为数据集的 “专家”,学习将每个数据集的标记路由到相应的专家。在通用对象检测基准上的实验证明了我们超越了现有的最先进水平,平均提高了 10.2 个 AP 分数,并比非 MoE 基准模型平均提高了 2.0 个 AP 分数。我们还观察到,在混合具有 (1) 有限可用性的数据集、(2) 不同领域的数据集和 (3) 不同标签集的数据集时,仍然表现出稳定的优势。此外,我们定性地展示了 DAMEX 对抗专家表示崩溃的鲁棒性。
Nov, 2023
本研究提出了一种新颖的域自适应算法,通过转换目标数据集的特征,减少统计分布上的差异,以训练源数据集的视觉问答模型,最大化对目标数据集上的问题正确回答的可能性。通过在几个热门的视觉问答数据集之间进行适应性调整的实证研究,发现所提出的方法优于没有适应和其他方法,并定量和 qualitatively 分析了适应性何时最为有效。
Jun, 2018
该论文研究了多任务和迁移学习对简单问题回答的影响,提出了一个新的包含 10 万个问题的数据集,并在 Memory Networks 框架下成功训练了系统来回答问题。
Jun, 2015