使用全卷积网络进行快速图像处理
本文旨在加速深度卷积神经网络的测试时间计算,通过最小化非线性响应的重建误差,附加一种低秩约束,以帮助降低过滤器的复杂度,该算法可以减小多层输入的叠加误差并提高模型精度,可将 ImageNet 的训练速度提升 4 倍,精度提高 4.7%。
Nov, 2014
本文旨在加速卷积神经网络(CNNs)的测试时间计算,特别是对计算机视觉领域产生重大影响的非常深的 CNNs。通过开发一种不需要随机梯度下降(SGD)的有效解决方案,解决产生的非线性优化问题,我们提出了一种新的非线性方法,在对多个层进行逼近时实现了一种不对称重建,以减少快速积累误差,并成功地在 Object detection 中实现了优雅的精度降级。
May, 2015
本文提出了一种基于卷积神经网络的 Fully Convolutional Networks(FCN)方法,可以用于图像的深度语义分割。通过该方法,我们成功地提高了 PASCAL VOC、NYUDv2、SIFT Flow 和 PASCAL-Context 等公开数据集上的 segmentation 模型的性能,并且推断速度远快于之前的相关工作。
May, 2016
该研究证明,卷积网络可以通过端到端的训练,从像素到像素地训练,超越先前的语义分割最先进方法,通过自适应大小输入和高效学习来生成相应大小的输出。该研究还详细介绍了全卷积网络的应用于空间密集预测任务,并将 AlexNet、VGG 网和 GoogLeNet 等现代分类网络改进成全卷积网络,并将它们学习到的表示通过微调应用于语义分割任务。最后,该研究提出了一种新的网络架构,将深层次粗糙层和浅层外观信息相结合以生成准确和详细的分割结果,在 PASCAL VOC、NYUDv2 和 SIFT Flow 数据集上实现了最先进的语义分割(2012 年的 mean IU 相较前一方法提高 20%),对典型图像的推理时间仅需三分之一秒。
Nov, 2014
本篇论文主要研究了如何利用适当分解卷积和激进的正则化等方法,使卷积神经网络计算效率最大化,并以 ILSVRC2012 分类挑战作为基准,报告了使用少于 2500 万参数的 5 亿乘加运算成本的网络,评估单帧评估的 top-1 误差 21.2%和 top-5 误差 5.6%的显著成果。
Dec, 2015
通过提出局部卷积 (PConv) 和一种新的神经网络 FasterNet,实现了在广泛设备上获得比其他网络更快的运行速度,而不会牺牲各种视觉任务的准确性。
Mar, 2023
介绍了一种基于卷积神经网络架构的视频去噪算法 FastDVDnet,该算法展现了比现有最佳基于 patch 的方法更快的运行时间和相似或更好的去噪效果,并可以通过使用单个网络模型来处理广泛的噪声水平。
Jul, 2019
本文提出了一种基于深度学习的 CNN 网络结构来模拟自然图像的统计规律,并使用随机重排像素的方式提高 CNN 对于像素分布的关注度,采用点卷积核取代大卷积核,实现了更好的统计表示能力。实验结果表明,该网络在颜色校正和图像去雾两个应用中达到了可比较的性能,并且参数数量和计算成本比现有架构更小。
Jan, 2018