- 预训练的特洛伊攻击视觉识别
本研究旨在提高人们对在实际场景中应用预训练视觉模型所面临的潜在威胁的意识,并通过提出预训练特洛伊攻击来展示其在不同下游视觉任务中的有效性。
- 深度残差网络的收敛分析
本研究旨在了解深度 ResNets 的收敛性,并给出一般深度神经网络的矩阵 - 向量描述和明确表达式,以研究两个涉及无限非方形矩阵积的级数的收敛性,进而建立 ResNets 逐点收敛的充分条件,并在基准机器学习数据上进行实验证实我们的结论。
- ICLR无捷径的深度学习:定制整流器塑造核心
本研究提出了一种新的变换,完全兼容 ReLUs 的变种 ——Leaky ReLUs,并证明我们的方法可以实现与 ResNets 相当的准确性。
- CVPR组稀疏性:过滤器剪枝和分解网络压缩之间的枢纽
该论文分析了两种流行的网络压缩技术,在统一的框架下比较了滤波剪枝和低秩分解,同时提出了一种全局的压缩方法并在多个基准测试中表现优异。
- 高效前向式结构搜索
本文提出了一个神经架构搜索算法 Petridish,用于随着现有网络层的迭代添加快捷连接。其利用加入的快捷连接在增强的层上有效地执行梯度增强。文中所提出的算法受到特征选择算法前向逐步线性回归的启发,因为我们将 NAS 视为回归的特征选择的泛 - 基于自编码器的残差深度神经网络用于鲁棒回归预测和时空估计
本文提出了一种基于自编码器的残差深度神经网络,通过利用快捷连接嵌套实现残差映射,实现了对连续变量的可靠预测,并在多个数据集上得到了较高的精度和效率。
- ICCV序列聚合卷积网络
本文提出了一种新的深度卷积神经网络结构,即使用聚合特征的 Shortcut 连接来改善网络优化难度,并取代传统的卷积神经网络结构,经过在公共基准数据集上的实验,发现其性能超过其他更大而复杂的卷积神经网络结构。
- ICLRIamNN:用于高效图像分类的迭代自适应移动神经网络
本研究提出基于 ResNet 架构的参数共享和自适应计算时间的网络,该网络比原始网络更小,能够根据输入图像的复杂性调整计算成本。
- 用于面部属性分析的剩余编码自编码器
本文介绍了一种名为 R-Codean 的自编码器,它使用余弦相似度损失函数和快捷连接的方法,应用于基于补丁加权机制的面部属性预测,并在公开的 CelebA 和 LFWA 数据集上取得了良好的效果。
- 可视化残差网络
本篇论文通过定性视觉和实证分析,研究残差网络中残差跳转连接的作用,揭示残差跳转连接强制不同层次的卷积层区分特征的实际意义,证明残差网络遵循卷积神经网络慢慢学习局部特征并学习整个物体全局特征的普适性。
- ResNet 解密
ResNet 是一种残差网络,利用快捷连接显著减少了训练的难度,同时在训练和泛化误差方面都实现了很好的性能提升,我们提供了快捷连接 2 的独特理论解释,它可以使训练非常深的模型与浅的模型一样容易,同时我们的实验证明了通过使用快捷连接 2 进 - 残差网络的残差网络:多层残差网络
本文提出一种新的残差网络架构 RoR,通过在现有的残差网络中添加层次化的快捷连接实现优化,从而提升其学习能力,进而提高性能,实验结果展示 RoR 在各种残差网络类型中的有效性和通用性,并在多个数据集上达到最佳性能表现。
- ICLR将随机梯度推向二阶方法 —— 通过非线性变换的反向传播学习
本研究提出针对神经网络的三个转换方法,以近似二阶优化方法提高学习速度,但第三个转换可能因收敛到局部最优解且隐藏神经元的输入和输出接近零而对性能造成损害。