- 统一不确定性校准
构建强健、公正、安全的人工智能系统时,当面临难以判断或超出训练类别范围的测试样本时,我们希望我们的分类器能够说 “我不知道”。然而,传统的 “拒绝或分类” 策略不允许不同来源的不确定性进行交互,产生不准确的预测,并且无法纠正我们对不确定性估 - 拒绝使用 Shapley 值进行 XAI -- 额外证据
最近的研究表明 Shapley 值对于可解释的人工智能(XAI)是不足够的,本文通过对特征既非布尔型又能选择多个类别的分类器家族的研究,进一步证明了 Shapley 值在 XAI 中的不适用性,并展示了在任何最小 l0 距离对抗样本中发生变 - 生成模型的统计图灵测试
通过统计模式识别语言提供了一个框架,量化了针对评估上下文的人类生成内容和机器生成内容之间的差异,描述了当前的方法并演示了如何使用该框架评估生成模型在向人类能力逼近的过程中的进展。
- 使用 Reed-Muller 码进行分类、拒绝和恢复
Reed-Muller Aggregation Networks (RMAggNet) is proposed as a classifier that can correct and reject inputs, minimizing i - 缺失值处理的三元决策树
这篇论文介绍了 Trinary 决策树,一种旨在改善决策树回归器和分类器中处理缺失数据的算法。通过理论计算和使用真实数据集的数值说明,与已有算法在不同缺失数据情景(完全随机缺失(MCAR)和信息缺失(IM))中性能的比较,Trinary 决 - 在部署期间调整分类器以适应变化的类别先验
通过估计分类器自身输出的类先验概率,本文探索了不同方法来提高分类器在特定环境下的运行时准确性。
- 多攻击: 多个图像 $+$ 相同的对抗性攻击 $ o$ 多个目标标签
我们展示了一种能够轻松设计出单个对抗性扰动 P,将 n 个图像 X1,X2,...,Xn 的类别从它们的原始未扰动类别 c1,c2,...,cn,变为所需(不一定相同的)类别 c*1,c*2,...,c*n 的技术。这种技术我们称之为 “多 - 半监督和自监督学习在医学图像上的准确率与时间前沿
对医学图像分类应用进行的研究表明,使用未标记的数据可以提高分类器的性能,通过自监督学习和半监督学习的方法,本研究在医学图像领域设计了一个基准测试,发现 MixMatch、SimCLR 和 BYOL 方法是强有力的选择,并提供适用于新医学任务 - ACL基于概念的解释用于检测被虐待语言分类器学习到的伪因果关系
本文研究了三种常见的英文辱骂语言分类器,关注负面情绪的本质,并介绍了基于概念的解释度量来评估概念对标签的影响,并比较分类器在概念和标签之间学习虚假全局充分性的程度。
- KDD使用数据自适应能量距离对高维数据进行强大分类
针对高维低样本数量数据的分类问题,本文提出了一种基于特定设计,没有调整参数并且具有鲁棒性的分类器,并证明在某些一般条件下,在高维低样本数量渐近情况下,分类准确无误。通过广泛的模拟研究和实际数据分析,展示出所提出分类技术相对于几种广泛认可的方 - 基于梯度的归因方法中,Pre 或 Post-Softmax 得分哪个更好?
本文研究了基于梯度的神经网络归因方法在分类器中的应用,讨论了使用预 softmax 分数与后 softmax 分数的梯度之间的实际差异及其各自的优缺点。
- 解释性人工智能的逻辑
本论文讨论了关于可解释 AI 的理论,基于符号逻辑,探讨了三个维度(必要和充分条件、最小充分条件、最小必要条件)的决策理解,以及如何应用于非符号学习器。
- 行星凌日信号分类器的多重性增强:使用 ExoMiner 的多重性增强验证 69 个新系外行星
本文提出一种基于多重性信息的框架以提高已有的行星凌日信号验证器的性能,并将其应用于多种现有的验证器中。最终,使用这个框架验证了来自 Kepler 目录的 69 颗新的行星。
- 使用非二元特征的分类器的新解释类别
研究了分类器的决策规律,提出了两种解释的方法:有支撑和对比解释。当处理非二分特征时,这些解释会受到显著影响,在此基础上,提出了一种新的完备原因的概念及其量化运算符。
- 基于量化的后解释
本文提出了一种名为 “通过量化实现的事后解释(PIQ)” 的新方法,用于解释训练分类器所做的决策。通过向量量化将分类器的表示转换为离散的、类特定的潜在空间,类特定的编码簿起到瓶颈作用,迫使解释器专注于被分类器认为与做出预测相关的输入数据的部 - CVPR对抗性反事实视觉解释
本文提出了一种由扰动攻击变成语义上的有意义的扰动来进行反事实解释的方法,该方法在扰动攻击时使用去噪扩散概率模型以避免高频率和超出分布的扰动,从而使得研究目标模型不受其鲁棒性水平的限制。通过在多个测试平台上的实验验证,我们的反事实解释方法展现 - Shapley 值在可解释性方面的不足
本论文发现使用 Shapley 值进行可解释 AI (XAI) 会导致关于特征重要性的推断存在严重偏差,并指出在某些分类器的情况下,计算严格特征归因值的有效算法的存在性应被视为不太可能。
- 少样本分类通用性预测的统计模型
本文提出了一种基于高斯模型的特征分布参数估计方法,通过估计类间条件密度之间的距离实现对于少样本分类任务中泛化误差的预测,并在实验中表明该方法优于 leave-one-out cross-validation 等传统方法。
- 关于计算概率性还原解释
探索实用于广泛使用的决策树、朴素贝叶斯分类器和命题语言的几个家族更好地计算超过给定阈值的目标类的相关集,证实了这些类别的相对简洁的相关特征集可以很容易地获得。
- 机器学习分类器解释中特征的必要性和相关性
该论文提出了解释机器学习模型预测的方法,同时讨论了相关性和必要性问题,证明了多个机器学习分类器的成员和困难性,并针对不同分类器提出了具体算法。实验结果表明所提算法的可扩展性较好。