本文提出了一种名为 NeuralScale 的算法,该算法使用了迭代剪枝方法控制神经网络的大小和参数,进而优化了固定神经网络的结构和配置,经过实验得出,NeuralScale 在参数约束的情况下,与默认配置相比,在 CIFAR10、CIFAR100 和 TinyImageNet 的数据集上分别增加了 3.04%,8.56%和 3.41%的准确性,取得了优异的表现。
Jun, 2020
本文探讨卷积神经网络的扩展策略,指对基础卷积网络进行扩展以赋予其更高的表征能力。作者提出一种快速且简单的复合扩展策略,旨在主要扩展模型的宽度,而稍微扩展其深度和分辨率。实验结果表明,许多扩展策略可以产生类似的精度,但其性能却各异。该研究为在各种计算约束下分析和选择缩放策略提供了框架。
Mar, 2021
通过利用元学习器生成不同输入尺度的主要网络的卷积权重并针对每个尺度维护私有的批量归一化层,同时利用知识蒸馏技术优化不同输入分辨率下的网络预测,我们学习的元网络可以动态地调节主要网络以适用于任意尺寸的输入图像,表现出相较于单一训练模型更好的准确性和执行效率。经过在 ImageNet 数据集上广泛的实验验证,我们的方法在自适应推断过程中实现了更好的准确性与效率权衡。
Jul, 2020
本论文提出了基于尺度空间理论的比例等变 UNet(SEUNet)进行数字组织病理学图像分割,实验结果表明该方法在训练参数更少的情况下优于其他方法。
Apr, 2023
通过实验证明,针对不同的任务,基于卷积神经网络的学习型图像缩放器可以用于提高网络的性能,而相比于传统的图像缩放器,它并不一定能够提高图像的感知质量。该研究给出了基于 ImageNet 数据集的分类任务和 AVA 数据集上的图像质量评估案例证明。
本文系统研究了模型的缩放并提出了一种基于网络深度、宽度和分辨率的平衡方法,进而使用神经架构搜索设计了一种新的基线网络并扩展成一系列模型,称为 EfficientNets,这些 EfficientNets 在多项测试中取得了更好的准确性和效率,包括在 ImageNet 数据集上达到了 84.3% 的 top-1 准确率,在成为当前最佳的 ConvNet 的推理速度比其快 6.1 倍、参数更少的情况下,这是一个领先的结果。
May, 2019
基于第二阶损失景观信息的自动缩放方法,以灵活适应视觉变换器中的跳跃连接;在 DeiT-S 与 ImageNet100 上广泛评估,相较于传统缩放,准确率提高 2.5%,参数效率提高 10%;缩放网络在从头训练小规模数据集时表现出卓越性能,是视觉变换器的首个完整缩放机制,实现高效模型缩放的一步。
Feb, 2024
本文研究了深度卷积网络在人脸识别中的性能,发现网络的 “瓶颈” 结构对于迁移学习具有重要作用,并提出了一种解决方法,即用自助法取代随机子采样;同时还发现了表示范数和目标域判别能力之间的联系,并基于这些发现,在目前最流行的人脸识别数据集 LFW 上取得了优秀的性能,甚至超越了商用系统。
Jun, 2014
使用 N-Jet 层,通过学习 Gaussian 导数滤波器的组合来自动学习每层正确的分辨率,优化连续参数 σ 从而实现有效的分类和分割。
Jun, 2021
本文研究通过增加训练集大小来提高深度卷积神经网络图像处理的性能,发现在训练样本数较少时,模型表现随训练样本数增加而迅速提升,但在一定程度上达到饱和,并提出理论解释。
Sep, 2022