对弃权分类器进行反事实比较
在关键应用中,分类器将决策推迟给人类至关重要。我们提出了一种事后方法,使现有分类器有选择地放弃对某些样本的预测。我们的放弃分类器被激励以在满足用户指定的组公平性定义时保持原始准确性,同时实现一组群体公平性的程度。为此,我们设计了一种整数规划过程,为每个训练样本分配放弃决策以满足一组约束条件。为了将放弃决策推广到测试样本,我们训练了一个代理模型,以端到端的方式根据整数规划解决方案学习放弃决策。我们分析了整数规划过程的可行性,以确定实现无害性所需的不公平容忍度和准确性约束的可能放弃率。据我们所知,这项工作是首次确定约束参数与所需放弃率之间的理论关系。由于人力资源的不足,高放弃率在实践中通常是不可行的,因此我们的理论结果是重要的。我们的框架在保持类似放弃率时,在公平差异方面优于现有方法而不牺牲准确性。
Oct, 2023
我们研究了多类别分类中的学习与弃权的关键框架,介绍了一系列新的理论和算法结果,提出了几个新的代理损失函数家族,并分析了单阶段和两阶段学习设置的保证和应用,证明了我们的代理损失的优越性,并展示了广泛适用的两阶段弃权算法的卓越性能。
Oct, 2023
我们介绍了一种新的排名框架,其中学习器可以以有限的代价 $c$ 放弃对某些预测的判断,并对这个框架进行了广泛的理论分析,包括一系列 $f$- 一致性边界,达到了此领域的最新理论保证水平,我们进一步提出,这种新的放弃策略在使用常见的等连续假设空间时显得尤为重要,我们还报告了实验结果,证明了带放弃策略的排名方法的有效性。
Jul, 2023
通过引入新的代理损失函数,分析了多类别分类中学习与弃权的打分式公式,证明了这些代理损失函数的非渐近性和假设集特定一致性保证上界了弃权损失函数的估计误差,实验评估了新算法在几个数据集上的效果并展示了阶段性弃权算法的实际重要性。
Oct, 2023
本文探讨了一种适用于分类器在对抗样本上放弃输出任何类别 (即通过放弃输出任何类别来实现对抗鲁棒性) 的情况下的对抗鲁棒性问题,提出了一种新的带有放弃选项的对抗鲁棒性目标函数,并提出了一个基于该目标函数的基准,最后提出了一种 Combined Abstention Robustness Learning (CARL) 方法来实现分类器及其应该放弃输出的输入空间的区域的联合学习。通过对 PGD 和 DeepFool 等攻击的评估,得出使用 CARL 训练的分类器比基准分类器更精确、更鲁棒、更有效。
Nov, 2019
本研究采用贝叶斯方法研究了具有放弃反馈的基于池的主动学习问题,提出了两种新的贪心算法,同时学习分类问题和未知的放弃率,证明了这两种算法均具有近似最优保证,并在各种实际情况下进行了实验验证。
Jun, 2019
本研究提出一种介于纯随机和完全对抗的序列预测模型,可在不损失成本的情况下避免对注入干扰项的干净标签对抗(或超出分布)示例进行预测;同时使用 VC 维度来量化不确定性,且不需要访问条件分布。
Jun, 2023
使用一种新的损失函数来训练深度神经网络进行分类并进行避免错标操作,使 DNN 在困惑的样本上避免误差,并在非避免的样本上继续学习和提高分类性能,并证明其在不同类型的标签噪声下的强大实用性
May, 2019
研究活动学习的算法,其中标签器不仅可以返回不正确的标签,还可以放弃标记,利用放弃响应提出的算法在噪声和放弃率的自然假设下分析了其统计一致性和查询复杂度,并与下限相结合,证明在某些技术条件下,它实现了近乎最佳的查询复杂度 。
Oct, 2016
本研究通过在模型输入中添加专门的弃权类别,并在未经筛选的数据集中训练深度神经网络,建立有效分类器以识别无法归类的数据,并在图像和文本分类等领域上取得了良好表现。
May, 2021