约束单调神经网络
本文提出一种基于神经网络的单残差连接的加权受限架构,以实现对神经网络输入的任何子集的确切单调依赖,同时控制了神经网络的 Lipschitz 常数,从而提供了鲁棒性,该算法被用于训练强大,鲁棒和可解释的鉴别器,在多个基准测试中均取得了与当前最先进方法相媲美的性能。
Jul, 2023
本篇研究提出了一种针对深度学习的单调性约束处理技术及激活函数为 ReLU 神经网络的单调性归纳偏置技术,并实现了名为 COMET 的工具。实验结果显示,该方法与现有单调性学习器相比具有最先进的结果,并且可以提高模型质量。
Jun, 2020
通过交替使用线性嵌入层、格子集合和校准器(分段线性函数)构建具有单调性的深度模型,使用 TensorFlow 实现,并使用 ADAM 优化器和随机梯度下降方法,实验结果表明,六层的单调深度格子网络在分类和回归问题上的性能都达到了最先进的水平。
Sep, 2017
本文提出一种改进的 min-max 网络架构,使用严格单调递增光滑非线性函数来缓解梯度消失问题,以支持计算机辅助决策中的公平性,并在数据驱动的科学模型中增加可信度,其性能表现优于其他神经网络和非神经网络方法。
Jun, 2023
本文提出了一种新的非单调激活函数 SGELU,SSiLU 和 SMish,它们由 ReLU 的正部分和 GELU、SiLU 和 Mish 的负部分组成。实验结果表明,这些新的激活函数在多个深度学习架构上具有高效性能。
May, 2023
本研究提出了一种基于梯度的点损失函数,用于加强深度神经网络的学习过程, enforcing partial monotonicity,其结果显示该方法在 AUC 和单调度方面具有可比性(有时表现更好),并能够学习不同的个体趋势并产生更平滑的条件曲线,同时保留深度网络的灵活性,强调了领域知识在增强模型性能和实现可靠预测中的重要性。
Sep, 2019
本文研究基于凸性的神经网络架构和其对泛化能力和过度拟合的影响,限制权重为非负并使用非递减凸激活函数可以让神经网络自我正则化,克服过度拟合问题,提高性能在图像分类方面的实验表明了这种方法的有效性。
Jun, 2020
本研究提出了一种利用高斯噪声从任何光滑单调激活函数创建随机单元的拉普拉斯近似,研究了该随机近似在训练一类与 Bregman 散度密切相关的 Restriced Boltzmann Machines 表现良好。我们称此类为指数族 RBM(Exp-RBM),该方法相比对比散度可以使用新颖的随机单元学习到有效的特征表示。
Jan, 2016