本研究旨在通过提出简单但有效的建筑改进并构建一种自我监督目标来学习神经算法推理,以在 CLRS 算法推理基准测试中获得新的最先进结果,并在各种问题中获得显着的改进,证明了不需要中间监督的学习方法是神经推理器进一步研究的有希望的方向。
Jun, 2023
我们提出了一种神经推理器的架构选择,强制其将执行轨迹视作有限预定义状态的组合,通过对算法状态转换进行监督训练,以实现与原始算法的完美对齐,并在 SALSA-CLRS 基准测试中获得了完美的测试分数,同时使得我们能够证明对于任何测试数据,所学算法的正确性。
Feb, 2024
通过构建神经网络来执行算法计算的神经算法推理有可能将经典算法运用于以前被视为不可达的输入,从而有了转化性的潜力。
May, 2021
该研究主要探讨利用神经算法推理来解决复杂问题,通过优化算法学习和同时学习最大流和最小割算法,可以在神经网络中进行更好的学习,并且在实际应用中产生了显著的性能提升。
Feb, 2023
通过与神经网络和热带代数的连接,将算法推理集成到机器学习模型中的潜力展示出来。
该研究提出了一种方法,使用多个训练环境来生成不同干预的多个环境,并评估了基于模拟数据的不受监督的学习问题的 ICP 性能,最后与 ICP 相结合提出了改进的方法,提高了在具有多个协变量的数据集中进行因果发现的性能。
Apr, 2023
提出了一种不变因果表示学习 (iCaRL) 方法,通过利用广义指数族分布得出数据表示,可以在非线性场景中实现超出分布的泛化,并发现目标的全部直接原因,针对合成和真实数据集提出性能优于基线方法的实验结果。
Feb, 2021
神经网络预测在面对越来越多的分布外数据时,往往呈现出不可预测和过度自信的特点。然而,我们的研究发现,与其任意拟合,神经网络预测往往趋向于一个恒定值,并且这个值通常接近于最优恒定解(OCS),即在没有观察到输入时最小化训练数据平均损失的预测。我们在 8 个包含不同分布转移的数据集(包括 CIFAR10-C 和 ImageNet-R,S)、不同损失函数(交叉熵、均方误差和高斯负对数似然)以及不同架构(CNN 和转换器)上展示了这种现象。此外,我们提出了这种行为的解释,首先通过实证研究验证,然后在简化的深度均质网络和 ReLU 激活的环境中进行理论研究。最后,我们展示了如何在面对分布外输入时利用我们的发现在实践中实现风险敏感的决策。
Oct, 2023
本研究旨在探索神经网络的抽象推理能力,提出了一个基于人类智商测试设计的数据集挑战,并展示了一种新的体系结构,该结构旨在鼓励推理并可显着提高神经网络的推理能力。通过改变测试和训练数据之间的方式,我们发现该模型在某些形式的泛化上非常擅长,但在其他方面明显较弱。此外,当该模型通过训练来预测答案的符号解释时,其泛化能力会显著提高。
Jul, 2018
本文探讨了如何利用执行步骤信息,通过多任务学习将图算法的算法推理知识迁移到其他类似任务上,解决缺乏执行步骤信息时的推理问题。研究包括了包括宽度优先搜索和 Bellman-Ford 等并行算法,以及 Prim 和 Dijkstra 等流贪心算法等不同类型图算法。
Oct, 2021