本文介绍了一种类似神经模块网络的组合模型,旨在对文本进行复杂的逻辑推理,通过寻找文章中相关的句子,并使用神经模块将它们链接起来,模型在 ROPES 上取得了显著的性能改进。
Apr, 2020
本文介绍语义分析中的挑战,并使用序列到序列模型加上注意力实现了 QDMR 形式,其中只使用词性标注作为对句子中单词的表示,从而使训练简单快速且避免维度灾难和过拟合,同时还演示了如何使用其他模型(如 CopyNet 模型或递归神经网络模型)来增强语义运算符预测。
Jan, 2023
本文提出了一种基于单跨提取的阅读理解模型的推理模板方法,针对复杂问题分解成若干简单子问题进行处理,实现了对减法算术问题的回答并具有竞争力,同时可解释、需要少量监督。
Apr, 2021
通过引入 Concise and Organized Perception (COP) 方法,可以高效地分解复杂的演绎问题并消除冗余信息,从而在与之前的方法相比表现显著优异的同时,减少错误推理的风险。
Oct, 2023
本文介绍了一种神经符号 (混合) 组合推理模型,以将语言引导的视觉推理与机器人操作相结合。该模型通过使用共享的原始技能库以任务非特定的方式处理所有情况。通过语言解析器将输入查询映射为由这些原语组成的可执行程序取决于上下文。结果表明,该方法达到了非常高的准确性,同时可以进行少量的视觉微调,从而实现了真实场景的可转移性。
Oct, 2022
通过使用符号引擎,本研究探讨了在潜空间中逼近多个数学运算的可能性,引入了不同的多运算表示范式,将数学运算建模为明确的几何变换,实现了 1.7M 个推导步骤的大规模数据集,分析了每个范式在与先进的神经编码器实例化时的特性,发现多运算范式对于区分不同的运算符是至关重要的,而对于单一运算的结论可以在原始表达式编码器中实现。此外,我们还展示了架构选择如何显著影响空间的训练动态、结构组织和泛化能力,导致不同范式和编码器类别之间存在显著变化。
Nov, 2023
介绍了基于 BERT 的阅读理解模型,可以通过简单的程序执行轻量级的数值推理,并在具有挑战性的 Discrete Reasoning Over Passages 数据集上,通过添加浅层程序,实现了 33%的绝对改进。模型可以在数学词问题环境中学习预测新的操作(Roy 和 Roth,2015)。
Aug, 2019
本文旨在研究任务驱动对话系统的可解释性,提出了一种采用前后明确逻辑推理的神经符号学方法,并设计了一种由假设生成器和推理器构成的两阶段方法来克服多跳推理带来的错误传播问题,实验结果证明该方法不仅获得了更好的效果,而且具有可解释性决策过程。
Mar, 2022
本文研究了针对数字推理任务的自然语言处理模型表现,并发现现有的评估指标无法有效测量模型在这一任务上的进展。
Sep, 2021
本文探讨了一种基于神经网络的逐步推理模型,旨在更细致地理解为背景段落中叙述的因果关系,并将此知识应用到新的情境中,实验结果表明了其有效性和可解释性。
Oct, 2020