- 将因果和非因果解释相结合,生成胶囊内镜下疾病进展
本研究提出了一种统一的解释方法,结合了模型依赖和不依赖的解释,用于给定实例的自动决策,生成一组解释。通过无线胶囊内窥镜,验证了该方法的有效性。
- AAAINCTV: 神经网络校准的神经夹具工具包和可视化
本文介绍了第一个开源工具包:神经夹具工具包,旨在帮助开发人员使用最先进的模型不可知校准模型。我们还提供了动画和交互式部分以熟悉神经网络中的校准,并介绍了使用我们的工具包的 Colab 教程。
- 高维数据的无模型 Shapley 值
本文提出了一个称为集体 Shapley(CS)方法,具有指数成本,以及需要第二个黑匣子模型作为输入的受监督的流形 Shapley 方法。并且引入了一种名为 IGCS 的集成梯度版本的 cohort Shapley,通过某些曲线下面积度量证明 - 机器学习中基于逻辑的可解释性
本文概述了现有关于计算机生成机器学习模型正式解释的研究,旨在与之前基于非正式解释的方案进行比较,并讨论了各种问题,包括基于不同机器学习模型的最佳逻辑编码以及如何使解释具有可解释性。
- 基于模型无关的 SAT 方法的符号解释枚举
文章提出一种基于模型不可知和 SAT 的方法生成符号解释,实验结果表明该方法可以提供充分原因和反事实解释。
- MACE:一个高效的模型无关框架用于因果解释
提出了一种新的框架 Model-Agnostic Counterfactual Explanation (MACE),通过采用一种新设计的流水线来有效处理大量特征值上的非可分机器学习模型,其中包括使用基于 RL 的方法来找到良好的对策例子和 - 模型无关的多智能体感知框架
本文提出了一种基于模型无关且不共享模型信息的多智能体感知框架,旨在消除模型差异性对性能的负面影响。具体地,我们提出了一种置信度校准器,可消除预测置信度评分偏差,并为此独立地在标准公共数据库上进行校准。此外,我们还提出了相应的边界框聚合算法, - CVPR将语言引导集成到基于视觉的深度度量学习中
采用语言指导目标来进行视觉相似性学习,以更好地实现语义一致性并提升 Deep Metric Learning 的泛化能力。实验证明,语言指导方案可在各项基准测试中实现明显的模型无关性改善,并取得具有竞争力和最先进的结果。
- IJCAI对比时空抽象概括和比较代理动态
本文提出了一种数据驱动、模型无关的技术,用于生成一个易于人理解的摘要,概括一个演变动力系统(如控制代理的学习过程)中的显著对比要点。该技术根据信息论差异度沿时间和空间维度对转换数据进行聚合,并以图形和文本通信方法为辅助,对连续状态空间下的深 - AAAI可解释的低资源法律裁决
该研究利用深度学习模型解决了商标法中的混淆风险问题,并介绍了一种模型无关的可解释中间层和弱监督学习策略,这对于高风险应用领域非常有效。
- AAAI元对抗扰动
本文提出一种称为 meta adversarial perturbation(MAP)的新方法,可以通过一步梯度上升更新对自然图像进行模型不可知的攻击,并且实验结果表明各种先进深度神经网络都容易受到这种攻击。
- KDD将尺子带入黑匣子:从个体条件期望图中揭示特征影响
本研究提出一种新的基于 ICE 图的特征影响度量,可解释为类似于线性回归系数的模型无关,性能无关的特征影响度量,并介绍了 ICF 特征影响力的多样性,最后我们展示了这种实用性工具在几个现实世界的数据任务中的效用。
- 双重关注抑制攻击:在物理世界中生成对抗伪装
本文提出了双重关注抑制攻击 (Dual Attention Suppression,DAS) 来对抗深度学习模型中的物理对抗性样本,该方法具有模型无关性和人类特定模式,在数字和实体世界中均进行了广泛实验,表明该方法优于当前最先进的对抗性攻击 - 多任务设置下的图表示学习的元学习方法
本文提出了一种新的元学习策略,能够生成可用于多个任务的多任务节点嵌入,并在多个任务上表现出比传统模型更高甚至可比的性能。该方法可以避免同时执行多个任务时出现的困难,是模型不可知和任务不可知的,适用于各种多任务领域。
- 可解释的机器学习 -- 简史、现状和挑战
简述了解释性机器学习领域的发展历程,综述了最新的解释方法,讨论了挑战,提出了回归建模、基于规则的机器学习、敏感性分析、因果推断和社会科学等领域的启示。
- 基于实例的时间序列分类对抗解释
本文提出了一种模型无关的案例技术 ——Native Guide,用于生成时间序列分类器的反事实解释,该技术通过突出和修改分类的基础部分来调整已有的反事实情况,并通过两个比较实验的定量和定性结果验证了其优越性。
- 元软标签生成器用于噪声标签
提出了一种称为 MSLG 的元软标签生成算法,通过元学习技术来共同生成软标签并以端到端的方式学习深度神经网络参数以解决数据集中嘈杂标签引起的性能下降问题。
- 深度神经网络中特洛伊攻击的表面简单方法
本文提出了一种新的训练免费的攻击方法,使用一个小的特洛伊模块(TrojanNet)将恶意特征插入目标模型,该模型通过特殊标记对输入进行标记,并将所有标签注入特洛伊,攻击成功率达到 100%,且不会影响模型在原始任务上的准确性。
- KDD对抗式不忠学习用于模型解释
提出了一种 MEED 框架,其中包括了用于模型解释的实例特征选择技术和基于对抗性不忠诚学习的解释器的设计,以及整合了有效解释方法作为良好的先验知识的扩展, 实验结果表明该方法效果优越,可应用于数据挖掘和知识发现。
- KDD一种通用且与模型无关的生成样本框架,用于可解释人工智能
提出了一种基于生成模型的,通用的和模型无关的框架,用于综合最大化机器学习模型的期望响应的输入样本,该框架不需要对黑盒模型的内部结构或训练数据的访问或知识。