网络类型与逻辑回归的相关性
本文提出 Logit Normalization 方法,通过约束神经网络输出的 logits 向量的范数,以减少 out-of-distribution 数据的高置信度问题,并在常见基准测试中取得高度可分辨的置信度分数。
May, 2022
本文研究神经网络在两个数据集之间的分类问题,建议通过分类器网络训练来有效解决两个数据样本的差异,本文提出了一种基于已训练的分类神经网络的双样本检验方法,并在理论和实验方面均得到了良好的效果。
Sep, 2019
本文提出了一种基于 logit 值分布的神经网络分类模型的不确定性预测和置信水平估计方法,可用于知识提取过程中的预测筛选,并在关系提取、命名实体识别和图像分类等任务中获得显著的提高。
Oct, 2022
通过在预训练的神经网络的 logits 上再训练一个简单的 3 层神经网络,我们能够竞争性地检测出分类错误,从而解决现代神经网络无法提供可靠置信值的问题(也就是所谓的敌对样本问题和过度自信问题)的局限性。
May, 2019
研究了不同损失函数选择对深度神经网络及其学习动态的影响,证明了 L1 和 L2 损失函数是深度网络分类目标的合理选择,并提出两种新的损失函数作为现有损失函数的可行替代品。
Feb, 2017
本文介绍了深度学习中特征扰动、标签扰动和 logits 向量扰动三种扰动方式,并提出了几种新的方法来扰动 logits 向量以提高模型的稳健性和泛化能力,实验结果表明了该方法的竞争性能。
Sep, 2022
本文介绍了一种简单高效的后验置信度估计器 - $p$-NormSoftmax,它可以大幅提高预训练模型的选择性分类性能,并在实验中证明了此方法的有效性。
May, 2023
本文介绍了两种简单的技术对抗现实场景中数据标签分布的不平衡性,包括采用标签频率进行 logistic 校准 以及在训练过程中强制实施其中之一或两种技术能够鼓励罕见标签与支配标签之间拥有一个相对较大的罕见标签较大的标签在一些学习情况中具有更好的表现。
Jul, 2020
使用逻辑损失训练的深度神经网络(DNN)在各种二元分类任务中取得了令人印象深刻的进展,然而,关于 DNN 和逻辑损失的二元分类的泛化分析仍然很少。本文旨在通过建立一种新颖而优雅的 oracle-type 不等式,并利用它推导全连接的 ReLU DNN 分类器在逻辑损失下的尖锐收敛速率,以填补这一空白。此结果解释了为什么 DNN 分类器在实际高维分类问题中表现良好。
Jul, 2023
本文旨在提高有针对性攻击中对抗样本的可转移性,通过在损失和特征方面提出两种不同的改进方法。首先,我们引入了一种新的规范化对数准确度校准方法,它同时考虑了对数边界和对数的标准差。其次,我们进一步研究了截断特征混合方法来减小源训练模型的影响,从而实现了额外的改进。在 ImageNet-Compatible 和 CIFAR-10 数据集上进行的实验证明了我们提出的两个组件的个别和相互优势,在黑盒有针对性攻击中取得了领先于现有方法的大幅度改进。
May, 2024