采用 progression property 算法,利用非线性函数和正则化参数进行系统设计,采用随机矩阵来降低学习参数,多项分类和回归实验表明该设计网络具有较强的泛化能力。
Oct, 2017
该研究构建了自定义正则化函数用于深度神经网络的监督训练,利用自动编码器得到正则化器,实现分段模型标签的训练,并在语义分割中展示了正则化策略对提高准确率的实验结果。
Apr, 2018
本文提出了一种新的数据依赖性结构化梯度正则化器,旨在增加神经网络对抗扰动的鲁棒性,该正则化器可以从第一原理中导出。实验证据表明,结构化梯度正则化是对抗低水平信号污染攻击的有效一线防御。
May, 2018
我们提出并分析了一种规则化方法,用于结构化预测问题。我们表征了一大类损失函数,允许在线性空间中自然地嵌入结构化输出。我们利用这一事实设计了学习算法,使用代理损失方法和规则化技术。我们证明了所提出的方法的普遍一致性和有限样本边界,表征了所提出方法的泛化性能。我们提供了实验结果,证明了所提出方法的实用性。
May, 2016
本文提出了一种正则化连续学习的新视角,将其定义为每个任务损失函数的二阶 Taylor 近似,得到了一个可实例化的统一框架,并研究了优化和泛化特性,理论和实验结果表明二阶 Hessian 矩阵的精确近似非常重要。
Jun, 2020
本文提出了一种新颖的基于预测理论的微分神经结构搜索优化方法,其优化标准很适合于架构选择,即最小化次优操作选择所产生的遗憾。我们的方法动态地清除劣质结构并增强优秀结构,它获得了最优最坏情况遗憾的较佳性能,并建议使用基于反向梯度携带信息量的多个学习速率。该算法在多个图像分类数据集上均获得了强大的性能,具体而言,在移动设置下 CIFAR-10 达到 1.6%的错误率,ImageNet 达到 24%的错误率,并在另外三个数据集上实现了最新的研究成果。
Jun, 2019
提出了一种用于深度神经网络(DNNs)的新颖正则化方法,将训练过程视为约束优化问题,利用随机增广拉格朗日乘子法(SAL)实现更灵活高效的正则化机制,对白盒模型进行改进以确保可解释性,实验证明该方法在图像分类任务上实现了更高的准确度并具有更好的约束满足性,从而展示其在受限设置下优化 DNNs 的潜力。
Oct, 2023
研究了深度神经网络的正则梯度下降算法,并通过量化约束集合的复杂度以及研究覆盖维度来探索正则化技术在加速训练、提高泛化性能以及学习更高效紧凑模型方面的优势。
Feb, 2018
本文中提出了一种基于箱限制数学优化问题的方法,运用光滑径向基函数模型及无导数优化工具去寻找神经网络的最佳参数。该方法是自动的且可有效地搜索参数空间,其应用于药物相互作用的预测中具有良好的效果,并且所用的优化工具是开源的。
May, 2017
本文提出了一种新的方法,将正则化引入到神经网络的剪枝问题中,并提出了一种增量 L2 规范化变量的方法来解决剪枝安排和权重重要性评分的问题。这种增量非常成功,使得我们的算法在结构化和非结构化的剪枝条件下都具有可扩展性,并在 CIFAR 和 ImageNet 数据集上取得了与许多现有算法相媲美的结果。
Dec, 2020