置信可行集预测器
在这项研究中,我们通过进行一项预先注册的随机对照试验,提供给人类被试一些确定度集合,从而研究了确定度集合对人类决策的辅助作用。结果表明,使用确定度集合来量化模型的不确定性对于人机合作决策和人工智能团队非常有帮助。
Jan, 2024
本文介绍了在半监督学习中,利用 credal sets of labels,并使用 conformal prediction 方法,以此弥补 pseudo-labels 方法的经验效果不理论支撑的不足,无论在伪监督的校准属性还是在基准数据集上都表现出了竞争力。
May, 2022
在高风险领域中部署深度神经网络时,由于缺乏可解释性,不确定性量化变得具有挑战性。本文通过大规模预注册实验,比较了使用符合性预测集合与 Top-1 和 Top-k 预测展示相比在 AI 辅助图像标注中表现的优势,并发现对易任务来说,预测集合与 Top-1 和 Top-k 展示的准确性相当或略少,但在标记超出分布范围的图像时,特别是当集合大小较小时,预测集合能够卓越地帮助人类进行标注。研究结果从实证角度指出符合性预测集合的实际挑战,并提供了将其纳入实际决策制定的启示。
Jan, 2024
本文介绍一种基于分位数回归和树状结构分类器的符合性预测方法,可以有效解决多分类和多标签问题中难易样本分布不均匀、信心区间过大等挑战,且可以和任何分类模型结合使用并保证有效性。
Apr, 2020
在安全关键的分类任务中,我们提出了一种适用于含有模糊标签的情况的 conformal prediction 框架,在 approximated 的标签的基础上通过近似输入的后验分布来进行不确定性的校准。我们在合成和真实数据集上验证了我们的方法,并在皮肤病学中患者条件分类的案例研究中进行了实证。
Jul, 2023
利用证据一致性预测方法(ECP)为图像分类器生成一致性预测集,通过基于非一致性评分函数,利用目标标签的对数几率值推导出的证据计算非一致性评分函数的组成部分:一致性预测中的不确定性启发式概念、不确定性惊喜度和期望效用,实验评估结果证明,ECP 在生成一致性预测集方面优于三种先进方法,同时保持了对真实标签的覆盖。
Jun, 2024
统计学习理论是机器学习的基础,为从未知概率分布中学习的模型的风险提供了理论上的界限。然而,在实际应用中,数据分布可能会变化,导致领域适应 / 泛化问题。本文通过使用概率凸集(credal sets)模型化数据生成分布的可变性,为学习的 `credal' 理论奠定了基础,并推导了有限假设空间和无限模型空间的界限,直接扩展了传统结果。
Feb, 2024
通过引入得分函数的新定义和定义一组特殊的输入变量(conformal safety set),我们分析了可扩展分类器和一致预测之间的相似性,该安全集能够识别满足误差覆盖保证的输入空间模式,即在该集合中,观察到错误(可能不安全)标签的概率受到预定义的 ε 误差水平的限制。通过在网络安全中应用于识别 DNS 隧道攻击,我们展示了该框架的实际影响。我们的工作有助于发展概率稳健可靠的机器学习模型。
Mar, 2024