利用随机权重的强大生成模型用于深度图像表示
该论文研究深度神经网络的性质和学习方式,发现在深层卷积神经网络中,固定大部分权重可以在性能表现上与训练所有权重相媲美,探讨了该性质在创建更强鲁棒性的表示方面的应用。
Feb, 2018
本研究提出了一种未训练的简单图像模型 —— 深度解码器,它能够从非常少的权重参数生成自然图像,可以达到基于小波的阈值处理的效果,并且可以避免过拟合问题。此外,该模型简单且易于理论分析,为深度神经网络生成信号的有效表示提供了启示。
Oct, 2018
本文研究证明,数据增强中使用多尺度的随机卷积来增加数据集的多样性,可以显著提高神经网络的鲁棒性和泛化性能,特别是在图片领域的常见深度学习挑战中,描述如何将其应用于各种深度学习模型上。
Jul, 2020
本文介绍了一种通用的框架,用于在没有监督的情况下对深度网络进行端对端训练,通过固定一组目标表示并约束其深度特征对齐到这些表示来达到目的,同时采用了随机批量重新分配策略和可分离的平方损失函数来缓解标准无监督学习中的一些问题,并且在 ImageNet 和 Pascal VOC 上能够实现与最先进的无监督方法相媲美的表现。
Apr, 2017
本文探讨了基于预测未来帧的 CNN-LSTM-deCNN 框架的深度神经网络开发的内部模型,该模型学习了高层次对象特征的丰富内部表示。可以广泛泛化,是一种有效的无监督学习方法。
Nov, 2015
通过深度生成建模,我们将图像生成过程分解成独立的因果机制,从而产生反事实图像,提高了模型的新颖性和可解释性。在 MNIST 和 ImageNet 上的实验表明,这些反事实图像能够提高模型的抗干扰性,而且这个模型能在单 GPU 上高效训练。
Jan, 2021
本文通过对最近的 CNN-based 描述符进行系统评估和比较,梳理深度卷积神经网络在纹理表示和分类变量不变性方面的性质,并提出了一个可视化的方法来理解这个性质。最后,作者介绍了一个关于纹理分析和合成的参数化模型,可以用于基于属性的图像操作以及图像的纹理化处理。
Nov, 2015