通过使用最先进的RC模型,我们对单回合和多回合推理在SQuAD和MS MARCO数据集上的表现进行了实证研究,发现多回合推理优于单回合推理,启用灵活的回合次数通常优于固定的多回合策略,并且特别有助于具有冗长描述性答案的问题。
Nov, 2017
该论文提出了一种新颖的双向神经序列转换模型,能够同时学习阅读理解中的三种知识输入方式,即问题、答案和上下文,并通过分层注意力过程对不同形态之间的交互信息进行捕捉和建模。该模型在四个公开数据集上的表现优于其他同类神经网络模型,尤其在问题回答和生成双方面具有更广泛的应用前景。
Sep, 2018
本文提出了一种新的CogQA框架,用于在Web规模文件中进行多跳问题回答。该框架通过协调隐式提取模块(系统1)和显式推理模块(系统2)逐步构建认知图。我们的实现基于BERT和图神经网络,可高效地处理HotpotQA fullwiki数据集中的数百万文档,从而实现在榜单上的胜利。
May, 2019
本文提出了一种将外部关联知识与多任务学习相结合的方法,以提高机器阅读理解的效果,并在两个多选基准数据集上进行了实验,结果表明该方法在常识推理方面表现优异。
Aug, 2019
本文介绍了Cosmos QA,这是一个大规模的基于常识的阅读理解数据集,旨在帮助机器阅读人们日常故事时理解其中的隐含意思,并提出了一种新的神经网络结构来处理此类问题。实验结果表明,机器与人类的阅读理解性能存在明显差距,因此还需要进一步研究。
提出了一种基于共享参数机制的端到端框架,称为ET5,用于会话式机器阅读理解,可以在完整利用涉入推理信息的情况下实现跨步问答,并在ShARC数据集上达到了新的最优结果。
Sep, 2022
该论文介绍了一个针对较小数据集的任务感知专家网络混合模型,重点研究常识学习问题,并通过训练不同的专家网络来捕获每个段落、问题和选项三元组之间不同类型的关系,同时灵感来自多任务和迁移学习的最新进展。通过将多个网络融合,强制实现它们的特定目标和关系,作者达到了最先进的结果并减少了过拟合。
Oct, 2022
本文提出了SymbolicToM,即一种通过显式符号表示来跟踪阅读理解任务中多个字符的信念状态、其对他字符信念状态估计及更高级别的推理的方法,该方法在ToMi基准测试中表现出了显著的理解能力提升。
Jun, 2023
该研究引入了一个使用提示将显性和隐性知识连接起来的PEI框架,以实现与人类阅读过程相符的多跳问题回答。实验结果表明,PEI在HotpotQA上表现与最先进的模型相当。消融研究证实了我们的模型在链接和整合显性和隐性知识方面的有效性。
Feb, 2024
本研究解决了逻辑阅读理解中关于数据增强方法局限性的问题,提出了前提导向数据增强(PODA)框架。该框架不仅生成包括正确和错误选项分析的链式思考推理,还能构建多样化的反事实上下文,显著提升了逻辑推理能力和模型的表现。
Sep, 2024