本文提出了一种将算法组件集成到端到端可训练的神经网络体系结构中的方法,通过条件语句、循环和索引来松弛离散条件,获得连续可微的算法。结果表明,所提出的连续松弛模型可以应用于多种任务。
Oct, 2021
通过构建神经网络来执行算法计算的神经算法推理有可能将经典算法运用于以前被视为不可达的输入,从而有了转化性的潜力。
May, 2021
研究解决学习特定领域语言中表达的可微分函数的问题,通过将神经网络的不同类视为对程序空间的松弛,并在一系列分类任务中实例化遗传算法和分支界限搜索来发现自然解释和有竞争力的程序分类器。
Jul, 2020
本文讨论了深度神经网络在视觉模式识别方面的强大能力,但在推理任务中仍然表现不足,引入了使用循环神经网络解决问题的算法,并通过前缀和计算,迷宫和棋类游戏等问题进行了实验研究。
Jun, 2021
本研究提出了一种新颖的神经程序模型(Neural Programmer),该模型扩展了具有少量基本算术和逻辑运算的不可区分神经网络,此模型可以在多个步骤中调用这些扩展操作,因此产生的组成程序比内置操作更复杂。该模型采用相对较弱的监督信号进行训练,不需要昂贵的编写正确程序的注释,经过训练在很复杂的综合表理解数据集中取得了几乎完美的准确度。
Nov, 2015
提出了一种新的神经网络设计方法,其中引导传统算法设计。通过提出两种启发式算法并演示将额外权重合并到其信号流程图中的算法技术,证明了这点。展示了这些网络的性能不仅可以超过初始网络的性能,而且可以达到更传统神经网络架构的性能水平。我们方法的一个关键特征是这些网络的参数初始化具有对于给定任务的体系结构的已知性能阈值。
Jun, 2018
本论文探讨了计算机视觉领域中非可微目标函数的训练问题,提出了使用可微的代理函数进行训练的解决方案,使得神经网络训练更易扩展到新型任务,包括可分解和不可分解的评估指标。
May, 2023
提出了一种基于端到端训练的神经网络的方法,该方法通过将黑盒函数的功能与可微分的神经网络进行逼近,以驱动神经网络遵守黑盒函数接口。在推理时,将不可微分的外部黑盒替换为其可微分的估计器,通过此方法,可以在无需中间标签的情况下,训练一个神经网络,从而计算黑盒功能的输入,并且这种综合模型比完全可微分的模型泛化效果更好,并且相对于基于强化学习的方法学习效率更高。
Jan, 2019
通过使用不同的可微编程语言和神经网络的框架,我们创建了端到端可训练系统,可以学习编写带感知元素的可解释算法。通过模块化结构和归纳偏差,我们证明了可以学习一组不断增长和改进的 (神经) 函数库,这可以带来比基线更高效的新任务知识传递。
Nov, 2016
本篇论文介绍了可微编程的概念,研究如何将张量网络算法编程为可完全微分,提出了稳定的张量分解自动微分方法和通过迭代固定点实现反向传播的技术,应用于 Ising 模型和 Heisenberg 模型,取得了较好的优化效果。
Mar, 2019