深度自编码器权重扰动在表格数据压缩和分类中的应用
通过研究比较权值衰减、随机失活和数据增强等正则化技术在深度学习中的作用,提出了数据增强对于提高深度学习泛化性能的显著贡献。因此,建议不要使用权值衰减和随机失活,而要更加关注数据增强和其他归纳偏差来优化神经网络。
Jun, 2018
本研究提出了一种基于正则化技术实现学习稀疏神经拓扑结构的方法,包括对非相关权重标定、压缩优化以及迭代式意义下的参数消除。在图像分类与自然语言生成任务中进行测试,并通过数据指标达到与或优于竞争对手等表现。
Apr, 2022
通过剪枝、量化和深度自编码器压缩方法,本文提出了一种能够在有限时间和内存约束下实现模型大小减小的方法,以便在高度受限的硬件环境中更快速和容易采用的压缩模型,并在多变量异常检测中实现显著的模型压缩比(80% 至 95%)而不显著降低异常检测性能。
Mar, 2024
本研究提出了一种 DNN 训练技术,该技术可以在不影响准确率的情况下,只学习了部分全参数集。此方法使用反向传播约束更新权重的总数,以仅跟踪具有最高总梯度的权重。通过确保总权重扩散保持接近于基线未修剪 SGD 的扩散,使用我们技术进行修剪的网络能够在网络架构中保留领先的状态,包括先前被认为难以压缩的网络。我们在 ImageNet 上使用 ResNet18 观察到了 11.7 倍的权重减少无准确性损失,最多可达 24.4 倍,但具有小的准确性影响。
Jun, 2018
本篇论文探究了卷积神经网络中的一种新行为:通过结构化扰动输入,预训练的 CNN 可以改善其预测性能,这种扰动被称为 Guided Perturbations。实验结果表明,这种方法可以提高现有方法在语义分割和场景标注任务上的性能,并且可以应用于 MNIST 和 CIFAR10 等数据集上的分类任务。
Mar, 2017
该研究构建了自定义正则化函数用于深度神经网络的监督训练,利用自动编码器得到正则化器,实现分段模型标签的训练,并在语义分割中展示了正则化策略对提高准确率的实验结果。
Apr, 2018
本论文研究在神经网络中,如何利用 13 种正则化技术来优化多层感知机(MLP)在 40 个表格数据集上的性能,并证明了良好正则化的 MLP 可以明显优于最新的神经网络架构和传统机器学习方法。
Jun, 2021
该篇论文提出了一种纠正深度神经网络中标签不准确的技术:通过增加一个噪声模型的 softmax 层,采用端到端的随机梯度下降来优化网络以及噪声模型,借助 dropout 正则化防止噪声模型过于简单。在 CIFAR-10 和 MNIST 数据集上的数值实验显示,该 dropout 技术优于最先进的方法。
May, 2017