本文探讨了如何从单个(或多个)log-loss 得分中推断数据集的标签,我们通过引入数论和组合数学的思想提出了对抗性侦查方法进行实验模拟,可成功推断数据集的标签。
May, 2021
本文提出了一种简单而有效的方法 —— 修正逻辑损失,旨在解决当大多数训练数据中存在潜在的虚假相关性时,基于经验风险最小化 (ERM) 训练的机器学习模型在推理时出现性能下降的问题,将最小化修正逻辑损失等同于最大化组平衡准确性,可以缓解虚假相关性的负面影响。实验证明,该方法在多个基准测试平台上的表现优异,平均提高了 5.5%的绝对精度,无需访问虚假属性标签。
Dec, 2022
本文介绍了两种简单的技术对抗现实场景中数据标签分布的不平衡性,包括采用标签频率进行 logistic 校准 以及在训练过程中强制实施其中之一或两种技术能够鼓励罕见标签与支配标签之间拥有一个相对较大的罕见标签较大的标签在一些学习情况中具有更好的表现。
Jul, 2020
通过将对数障碍函数引入 OCC 损失(LBL)中,并通过逐渐放松的 Sigmoid 函数解决优化不稳定性问题,提出了一种新的深度学习 OCC 损失函数(LBLSig)。与多种最先进的 OCC 算法在不同网络结构上进行比较实验证明了 LBL 和 LBLSig 的有效性。
Jul, 2023
提出了一种适用于机器学习竞赛的 “排行榜精度” 概念,引入名为 “梯子” 的自适应估计算法,在理论和实践中均具有高保真性、防御能力和实用价值,可在实际比赛中无需任何调整地部署。
Feb, 2015
本文提出了基于统计学检测方法的分类器适应方法,提高了检测性能;并且提出了 Logit Mimicry Attack 方法生成对抗样本,通过该方法可以避开统计学检测和分类器方法;最后,通过该文献,可以证明对抗样本的检测,统计学检测和分类器检测都不具备鲁棒性。
Jul, 2019
通过采用基于边界的损失,研究者展示了上下文编码策略的改进方式,在一系列共享的自然语言理解任务中取得了更好的表现。
Jun, 2019
通过发现简单易用的可转移攻击可以取得很高的目标转移性能,本文提出了新的针对传输设置的评估方法,并显示了使用 logit loss 方法生成目标通用对抗扰动的有效性。
Dec, 2020
通过计算测试统计量并利用对抗攻击引入的异常,我们提出了一种方法来可靠地检测被恶意策略改动的样本,并证明了在一定条件下此方法的有效性,我们在实验中也展示了此方法可以以高精度纠正对抗攻击的测试时间预测。
Feb, 2019
采用最坏情况下的对数损失最小化方法将公平性标准纳入分布鲁棒性的第一原则,并基于此原则推导出一种新的分类器,该方法具有凸性和渐近收敛性,并在三个基准公平数据集上展示了其实践优势。
Mar, 2019