- ImageNet 分类器是否具有 ImageNet 的泛化能力?
本文构建了针对 CIFAR-10 和 ImageNet 数据集的新测试集,发现在新测试集上,模型的准确率下降为 3% 到 15%,且这种准确率下降并非由于适应性,而是由于模型无法推广到原始测试集中找不到的,略微 “更难” 的图像。
- 使用 delta-VAEs 预防后向崩溃
针对当前潜变量生成模型中的副坍缩现象,本论文提出了一种 delta-VAEs 方法,通过限制后验变分族的最小距离以确保潜变量的气质保留和编码,实现了变分下界的最优化,并在表示学习上显示了实用性,实现对文本和图像的建模以及在 CIFAR-10 - 基于信赖域的神经网络对抗攻击
基于信任区域的对抗攻击方法对深度神经网络的决策做出了非常有效的攻击,同时在计算攻击扰动的速度上也得到了显著的优化。
- 深度卷积高斯过程
本论文提出了基于卷积结构的深度高斯过程模型,是一种基于贝叶斯原则的图像分类方法,能够有效的利用局部特征,改善了传统的高斯过程方法在 MNIST 和 CIFAR-10 数据集上的分类准确性,尤其是 CIFAR-10 数据集上准确率提高了超过 - CINIC-10 不是 ImageNet 或 CIFAR-10
介绍了 CINIC-10 数据集作为 CIFAR-10 的扩展替代品,并与从 ImageNet 数据库中选择和下采样的图像相结合编译而成,给出了数据集编译的方法和不同类别的示例图像,每个部分的像素分布以及一些著名的模型的标准基准测试。
- 基于双曲正切衰减的随机梯度下降在分类中的应用
本文提出了一种新的调度方法,称为双曲正切衰减(HTD),在多个基准测试中表现优于步长衰减和余弦调度器,并且比步长衰减少需更少的超参数,比余弦调度器更加灵活。
- 使用学习的验证器训练已验证的学习者
本文提出了一种新的算法框架,predictor-verifier training,用于训练可验证的神经网络,同时训练两个网络:一个预测网络和一个验证网络以达到最大化输出准确性并满足输入输出特定属性的目标。实验表明,predictor-ve - IJCAI课程对抗训练
本文提出课程对抗性训练 (CAT) 的方法,通过产生一系列攻击强度不同的对抗性样本,使用两种技术解决模型遗忘和泛化问题, 并证明 CAT 方法可以将 CIFAR-10 和 SVHN 的经验最坏情况精度大幅提高 25% 和 35%。同时,在非 - 深度神经网络分类的负对数似然比损失函数
本文提出了一种判别损失函数,与生成式训练标准不同,该函数使用正确和竞争类之间的负对数似然比,极大地提高了在 CIFAR-10 图像分类任务中的性能。
- ICLR局部内在维度对特征对抗样本子空间描述的限制
本文研究了使用局部内在维数来刻画深度神经网络对抗性样本的子空间,针对存在的局限性作了实验验证,结果表明 LID 能力有限。
- ICLR改进 Wasserstein GAN 的训练:一致性损失及其双重效应
本文提出了一种创新的方法来强制实现 WGAN 的训练过程中的 Lipschitz 连续性,并与最近的半监督学习方法之一进行了无缝连接,导致不仅产生比以前方法更好的照片真实样本,而且还出现了最新的半监督学习结果,其中我们的方法在仅使用 1,0 - ICCV使用参数对数双树小波散射网络高效卷积神经网络学习
本文提出了一种用 DTCWT ScatterNet 卷积神经网络来改善训练的方法,通过将 CNN 的前几层替换为参数基于 log 的 DTCWT ScatterNet,可以提取基于边缘的不变表示,从而使后续的 CNN 网络学习更高层次的特征 - ICML生成对抗网络的可能性估计
提出了一种简单的方法来评估生成对抗网络中生成的图像质量,通过定义与真实图像在鉴别器中的嵌入分布相关的高斯似然函数,并基于此定义两个简单的度量方式,从而得出一种适用于各种 GAN 的生成图像适应度的简单度量标准,CIFAR-10 上的实证结果 - 黑盒分类器的实时图像显著性
本文介绍了一种快速的显著性检测方法,可以应用于任何可微分的图像分类器,其通过训练掩膜模型来操纵分类器的分数,从而检测图像的显著部分,并在 CIFAR-10 和 ImageNet 数据集上进行了测试,表明其结果优于其他弱监督方法。
- ICML图像分类器的大规模进化
采用进化算法发现神经网络的架构,提出新型变异算子探索搜索空间以实现自动化,成功在 CIFAR-10 和 CIFAR-100 数据集上达到 94.6% 和 77.0% 的准确率,且无需人为干预。
- PixelCNN++:使用分立的逻辑混合似然和其他修改提高 PixelCNN
介绍了 PixelCNNs 生成模型的改进实现,使用了离散化的对数混合似然函数、对整个像素进行调节、采用下采样等多种优化方法。在 CIFAR-10 数据集上获得了最先进的对数似然值结果。
- NIPS高效的位深度神经网络随机推断
通过多个随机取样的网络模型的集成决策,提高比特神经网络在分类准确性方面的性能,并使用硬件高效的随机舍入程序对其进行评估。我们的方法对于提高嵌入式比特神经网络的有效性具有贡献。
- 强化学习神经架构搜索
利用递归神经网络生成神经网络模型描述,并通过强化学习训练,使生成的结构在验证集上的预期精度最大化,可以在多个数据集上实现新型神经网络模型设计,其中 CIFAR-10 模型的测试误差率为 3.65%,优于先前采用类似结构的 SOTA 模型; - 具有粗糙剪枝的紧凑卷积神经网络
通过对特征图和卷积核级别进行修剪,可以减少深度卷积神经网络的计算复杂性,而且在 CIFAR-10 数据集上的实验证明,在保持基线网络误分类率不到 1% 的情况下,可以在卷积层中引入超过 85% 的稀疏性。
- 训练 GAN 的改进技术
本文中我们应用各种新的架构特点和训练流程来改进生成对抗网络(GANs)框架,并着重讨论了 GANs 的两个应用程序:半监督学习和图像生成。使用我们的技术,我们在 MNIST,CIFAR-10 和 SVHN 的半监督分类方面取得了最先进的成果