关系递归神经网络
介绍一种新的神经网络结构 —— 工作记忆网络,该网络在保持关系推理能力的同时将计算复杂度从二次降至线性,并在文本和视觉问题应用中取得了显著结果。
May, 2018
本文介绍了一种广义的循环关系网络,它可以增强任何神经网络模型的能力,以进行多步关系推理,通过将物体表示为图形,解决需要关系推理链的任务,例如回答有关物体之间关系的复杂问题或解决需要相互约束的解决方案的难题,并在 bAbI 文本问答数据集和数独难题的求解中实现了最优结果。
Nov, 2017
本文介绍新的关系推理模型 RelNet,它是一种记忆增强的神经网络,用于建立实体和关系之间的抽象知识图,并可用于回答文档相关问题。该模型在训练时只需要正确答案的监督,并在 20 个 bAbI 问答任务中进行了测试,每个任务包含 10k 个样例,发现平均错误率仅为 0.3%,其中 11 个任务错误率为 0%。
Jun, 2017
本文提出了一种基于记忆机制的无监督图像描述模型 —— 循环关系记忆网络 (R2M),相较于 GAN 模型,该方法克服了句子生成中复杂和敏感的对抗学习,并且通过融合和循环两种记忆机制实现了从通用可视化概念到自然语言的翻译;我们在多项基准数据集上的实验证明,R2M 在参数少、计算效率高等各方面均优于目前最先进的技术。
Jun, 2020
本研究使用关系网络(RNs)作为简单的即插即用模块来解决需要基于关系推理的问题,并在三个任务中测试了 RN 增强网络,在使用挑战性数据集 CLEVR 进行视觉问答时,取得了超越人类的最好表现;使用 bAbI 套件的任务进行基于文本的问答;以及关于动态物理系统进行复杂的推理。使用一个精选的数据集 Sort-of-CLEVR,表明强大的卷积网络不具备解决关系问题的一般能力,但可以在增加 RN 的情况下获得这种能力。我们的工作展示了如何利用配备 RN 模块的深度学习架构隐式地发现并学习实体及其关系。
Jun, 2017
本论文致力于将符号逻辑推理的多步骤推理与神经网络的概括功能相结合。在文本和大型知识库中对实体和关系进行复杂推理。提出了三种重要的建模方法:(1)学习联合推理关系(2)使用神经注意力建模多个路径(3)学习在单个 RNN 中共享强度,使用我们的方法在实验任务中实现了 25%的错误率降低,推理中的错误率降低了 84%。
Jul, 2016
本文介绍了一种具有循环注意力模型的神经网络,该模型可以扩展到可能很大的外部存储器,并被应用于各种任务,如(合成)问答和语言建模。同时,本文展示了多个计算步骤(跳数)的关键概念可以提高性能表现。
Mar, 2015
提出了一种基于知识图谱的记忆增强自回归语言模型,通过检索相关关系以改善文本生成,实验结果表明,这种方法在困惑度和字符比特方面产生了更好的语言模型,并且关系记忆有助于生成的连贯性,是词元记忆的补充。
Jan, 2022
本文介绍了一种新颖的框架 Relational Neural Machines,它可以对学习器的参数和基于一阶逻辑的推理器进行联合训练,下面将介绍其在大规模关系任务中的可行性和良好效果。
Feb, 2020