该论文提出了一种基于多格迭代和并行计算的新型深度神经网络训练算法,和传统的序列前向、后向传播不同,该方法使神经网络的训练过程具备了层间的并行性,并取得了与传统方法相当的训练性能。
Dec, 2018
通过将连续动力学系统嵌入高阶数值积分方案中,我们构造了一种连续的深度神经网络框架 ——ContinuousNet,其具有与时间步长大小无关的层次独立性和增量深度训练方法,实现了在保持准确性的同时加快推断速度。
Aug, 2020
本研究旨在了解深度 ResNets 的收敛性,并给出一般深度神经网络的矩阵 - 向量描述和明确表达式,以研究两个涉及无限非方形矩阵积的级数的收敛性,进而建立 ResNets 逐点收敛的充分条件,并在基准机器学习数据上进行实验证实我们的结论。
May, 2022
本文探讨增加深度对神经网络性能提升的边际效益递减问题,提出一种更高效的残差网络结构并在图像分类和语义分割等领域实现了显著优越性能。
Nov, 2016
研究表明,Residual networks 可以通过迭代改进特征来执行表示学习和迭代细化,但对于这一过程的全面理解仍然是一个研究课题,并且共享残差层会导致表征爆炸和过拟合,需要采用现有的策略来缓解这个问题。
Oct, 2017
本研究提出基于 ResNet 架构的参数共享和自适应计算时间的网络,该网络比原始网络更小,能够根据输入图像的复杂性调整计算成本。
Apr, 2018
该研究论文研究了残差网络(ResNets)在监督学习中的作用,提出了其作为 ODEs 的时空近似,并探讨了通过 ResNets 中残差块的数量和表达能力的增加来逼近 ODEs 的解,并推导了一定规则下获得预定精度所需的残差块复杂性的估计。
Oct, 2019
使用神经残差扩散模型 (Neural Residual Diffusion Models) 框架,引入一系列可学习的门控残差参数来改善生成网络的可扩展性和生成内容的保真度与一致性。
Jun, 2024
本文提出了一种残差学习框架,以优化超过 VGG 网络 8 倍深度的残差网络在 ImageNet 数据集上的分类任务,以及在 COCO 目标检测数据集上取得了 28% 的相对提升。
Dec, 2015
本文提出了一种新的卷积神经网络架构,该架构通过扩展残差网络的层数,明确利用非常深网络的集成表现,并使模型变宽而不是更深,从而显著提高了准确性。受多元残差网络的并行结构启发,本研究还探讨了一种模型并行技术,该技术使残差块的计算分布在处理器之间,计算复杂度提高了 15%。最后,我们证明了我们模型在 ImageNet 分类数据集上优于大多数现有模型的表现。
Sep, 2016