- 利用替代模型方法进行 XAI 的黑客攻击
最近几年,高度复杂人工智能系统的新应用数量大幅增长。算法决策系统 (ADMs) 是其中之一,其通过人工智能系统代替人类专家的决策过程。为确保此类系统的公平性和透明性,可解释人工智能 (XAI) 越来越重要。一种实现可解释性的变体是 surr - 混合曲率决策树与随机森林
我们扩展了决策树和随机森林算法到混合曲率的产品空间,并在该研究中展示了通过在产品流形中进行简单、表达丰富的分类和回归来克服已有限制,并证明了与环境空间中的欧氏方法相比,在覆盖了各种曲率的组分流形和产品流形上具有卓越的准确性。
- 决策树算法的超快速选择
我们提出了一种名为 Superfast Selection 的新颖系统方法,用于在表格数据上选择决策树和特征选择算法的 “最优分裂”。该方法通过降低时间复杂度(从 O(MN)降至 O(M))来加快在单个特征上的分裂选择,M 表示输入示例的数 - 解释性多视角聚类
多视角聚类是一个重要的研究领域,本研究提出了一个可解释的多视角聚类框架,通过提取每个视角的嵌入特征和生成伪标签来引导决策树的初始构建,并在优化特征表示以及改进解释性决策树的同时,为多视角数据提供一个透明的聚类过程,实验结果表明,该方法在聚类 - 深度强化学习驱动调度的可解释建模
通过使用可解释性强的决策树模型,我们提出了一个名为 IRL(可解释增强学习)的框架,用于解决深度强化学习在集群调度中缺乏可解释性的问题,并且证明了 IRL 可以在保持相似调度性能的同时将黑盒深度神经网络策略转化为可解释的基于规则的决策树。
- 卷积神经网络通过决策树对特征图进行知识蒸馏
通过提取卷积神经网络的最终层中的特征并使用决策树进行训练,我们提出了一种蒸馏方法来解释深度神经网络的推理,展示了决策树在解释卷积神经网络决策时的表现与最小复杂度的卷积神经网络相当好。
- 基于 Boosting 的顺序元树集成构建优化决策树
使用增强学习方法构建多个元树以提高预测性能,防止过度深化的树引起过拟合的问题,并通过实验与单个决策树的集合进行性能比较。
- 关于 XAI 的保真度度量的综合研究
使用透明模型决策树作为基准,研究提出了一种新的测度指标验证 XAI 方法的准确性,结果显示了现有的测度指标在真实场景中不可靠,并建议开发新的指标以解决这些问题。
- 当 eBPF 遇见机器学习:即时操作系统内核分区
O2C 是一个创新的系统,通过在运行时将执行强制性操作的 eBPF 程序嵌入内核,实现了操作系统内核的分区,以有效防止初始腐败变为成功攻击,并通过执行过程保持一致的系统可用性。我们的全面评估显示,O2C 有效地将损害局限在分区内,并验证了决 - 二叉决策树和随机森林中的条件偏差及其消除
本文通过调查决策树和随机森林分类与回归中的条件操作符选择的偏差,针对具有格特征的特征的存在,提出了消除这种偏差的技术,并证明了偏差可能导致 AUC 和 r² 得分的显著差异。此外,通过提出的技术与最坏情况相比,在 AUC 和 r² 得分方面 - 深度自然语言特征学习的可解释预测
提出一种将主要复杂任务分解为一组较简单的中间子任务的通用方法,通过回答与最终目标任务相关的二进制问题来实现子任务的自然语言表示。利用一个小型 transformer 语言模型(如 BERT)根据从大型语言模型(LLM)获得的弱标签以自然语言 - 关于足够纯度减小条件下 CART 的收敛性
决策树和 CART 在回归场景下的收敛速度研究,证明基于充分不纯度减少条件的 CART 预测误差上界,并提出了易于验证的条件使得该条件得以满足。
- EMNLP树形引导:高效任务适应无需微调
通过决策树链式连接多个语言模型的调用以解决任务,并且在分类数据集上表现优于竞争方法,与微调相比具有竞争力,同时还可以观察模型的决策过程。
- 置换决策树
本文提出了使用 ETC 作为不纯度度量来构建排列决策树以捕捉数据中的顺序依赖性,并通过排列决策树实现了置换的 Bagging,与随机森林进行了比较性能,适用于需要保持数据时序分布的应用场景。
- 可解释聚类中深度减少的不可能性
本文研究可解释 K-means 和 K-median 聚类问题,证明了在欧几里得平面上,解释深度降低会导致聚类成本的无界损失,并将其扩展到 K-center 目标。
- TreeC: 一种利用元启发式算法生成可解释能管理系统的方法
该论文介绍了一种基于元启发式算法协方差矩阵适应进化策略(CMA-ES)的机器学习方法 TreeC,用于生成可解释的能源管理系统(EMS)模型决策树,与 RBC 和 MPC 等传统方法相比,该方法是一种基于历史数据学习 EMS 决策策略的方法 - 可解释的异常值汇总
本文提出了一种名为 STAIR 的算法,其为大规模、高维数据集中的异常检测结果学习了一组人类可理解的规则,使得机器可以自动从异常数据中提取出可操作的见解。STAIR 算法不同于传统的决策树算法,其以最小化复杂度的优化目标,通过递归式划分现有 - CEnt:一种基于熵的模型无关可解释性框架,用于对比分类器的决策
本论文提出了一种基于决策树、熵、对抗性生成模型等方法的可解释性算法 CEnt,能够生成种类多样性的反事实证明,不但在可行性、达成性等方面较现有方法表现更好,并且在 MNIST、Fashion MNIST 等数据集上进一步推广并成功用于文本分 - 完全动态的决策树
该研究开发了一种全新的动态算法,用于在标记示例任意插入和删除的情况下维护决策树,该算法保证每个决策树节点在任何时刻,使用的分裂具有接近最佳的 Gini 增益,在现实数据中的实验表明了该算法的有效性。
- 使用非负概念激活向量和决策树进行基于概念的卷积神经网络模型解释
本文通过基于概念提取的解释器训练决策树,以增加 CNN 模型的可解释性并提高解释器的保真度和性能。研究表明,Tree-ICE 在可解释性方面胜过基准,并生成更易读的模式解释。