ROPES 是一项具有挑战性的阅读理解基准测试,旨在针对情景中段落效果的推理。从科学教科书和维基百科中采集背景素材,要求系统在使用此背景素材的新情景中进行推理,最佳模型仅达到 61.6% 的 F1 值。
Aug, 2019
本文介绍了一种类似神经模块网络的组合模型,旨在对文本进行复杂的逻辑推理,通过寻找文章中相关的句子,并使用神经模块将它们链接起来,模型在 ROPES 上取得了显著的性能改进。
Apr, 2020
本文探讨了通过引入全局常识约束和利用大规模语料库的先验知识,将预测性文本描述中的操作和状态更改建模,从而提高神经结构预测模型的准确性和可靠性,并在基准数据集上展示了相对增益为 8%的结果。
Aug, 2018
本文旨在提高可信的 AI 系统的有效性和可解释性,定义一个新类型的多模态解释来解释决策,并提出一种新的解释生成方法,可以显式地模拟词语和感兴趣的区域之间的配对关系,同时开发了一个包含 1040830 个多模态解释的新数据集以及进行了广泛的分析,以研究不同设置下解释的有效性和推理性能。
Mar, 2022
该研究目标在于通过开发新模型 XPAD,解释性地预测动作之间的依赖关系,以及扩展 ProPara 基准数据集来解释行动,结果表明 XPAD 在新的任务中显著优于之前的系统。
Sep, 2019
该篇研究探讨了关于 NLP 中的可解释性或解释性是如何应用在法律文本中的,为了更好的满足用户的需求,我们提出了一种基于段落的理由提取的方法,并引入了一个新的数据集,对已有的规则进行了研究和探究。结果表明,该任务非常具有挑战性并需要深入研究。
Mar, 2021
本文旨在研究任务驱动对话系统的可解释性,提出了一种采用前后明确逻辑推理的神经符号学方法,并设计了一种由假设生成器和推理器构成的两阶段方法来克服多跳推理带来的错误传播问题,实验结果证明该方法不仅获得了更好的效果,而且具有可解释性决策过程。
本研究提出 CREPE 作为第一个事件因果推理和实体状态的基准测试,并在其中发现大多数语言模型表现低迷,但通过将事件表示为编程语言,并在表示中注入实体和事件之间的因果关系,提高了模型的性能。
Jan, 2023
本研究通过将定性关系任务分类成预测和比较两种类型,并采用端到端训练的神经网络模块来模拟这两种推理过程,实验结果在两个问答数据集 QuaRTz 和 QuaRel 上展示了我们方法的有效性和泛化能力,并提供模块的中间输出来使推理过程更容易解释。
Jun, 2021
本研究提出了一种基于条件的文本生成框架,依赖于 CausalBank 和 Cause Effect Graph 两个新资源开发,并使用词汇约束解码来支持析取正约束,利用 CausalBank 对最近一种最先进的因果推理模型的编码器进行持续训练,在不改变模型架构的情况下在 COPA 挑战集上取得了 3 分的提高。
Jul, 2021