由于深度神经网络在高风险领域应用时存在的不透明性,本文提出了一种名为神经添加模型(NAMs)的方法,将神经网络的表现力和广义可加模型的内在可解释性结合起来,令其在高风险领域有更好的应用前景,同时 NAMs 表现出了良好的性能,其可用于多任务学习及建立更复杂可解释的 COVID-19 模型。
Apr, 2020
神经外包模型(NAMs)的发展标志着可解释的深度学习在表格数据集上的重要进展,我们提出了一种新的 NAMs 子类 —— 通过随机傅立叶特征的高斯过程的单层神经网络结构,称为高斯处理神经外加模型(GP-NAM),它具有凸优化函数和可训练参数数量与特征维度成线性关系的优势,并证明了它在多个表格数据集上实现了与更深层次 NAM 方法相当甚至更好的性能。
Feb, 2024
本文提出了一种神经广义加性模型(NODE-GAM)和神经广义加性和模型(NODE-GA^2M),这种模型相对于其他集成和深度学习模型而言更具有可解释性,且可以自监督预训练以提高模型准确性。
Jun, 2021
本文探讨 Generalized Additive Models 的五个高级扩展模型和传统的六个机器学习模型,研究和评估其预测绩效和可解释性,并提出了更多的改进设计建议。
Apr, 2022
本文介绍了可解释化神经网络 (Explainable Neural Network,xNN),它是一种结构化的神经网络,设计特别用于学习可解释的特征。与全连接神经网络不同,xNN 工程化的特征可以相对简单地从网络中提取出来并展示。同时,在适当的正则化下,xNN 提供了关于特征和输出之间关系的精炼解释。我们在模拟实例上展示了这种可解释特征工程化的性质。
Jun, 2018
该研究论文介绍了一种可解释性图神经网络模型,名为 Graph Neural Additive Network(GNAN),通过直接可视化模型,可以在特征和图层次上提供全局和局部解释,展现模型在目标变量、特征和图之间的关系,实验证明 GNAN 与黑盒图神经网络在准确性上相当,因此适用于需要透明度的关键应用。
Jun, 2024
GLocalX 是一种基于本地解释的模型无关的解释方法,通过汇总本地解释解释部分理解黑匣子模型,从而学习精确而简单的可解释模型,以替代黑匣子模型。实验证明,GLocalX 能够准确地模拟几种模型,其性能达到本机全局解决方案的最新水平,这为在带有高维数据的复杂领域中实现高准确性和可理解性的分类模型奠定了基础。
Jan, 2021
我们提出了一种基于 “专家混合” 的综合框架,以解决传统模型和机器学习方法在处理复杂系统时的准确性和解释性之间的平衡问题。通过数据驱动的融合多样化的本地模型,充分利用基于原则的先验知识,我们的解决方案支持专家的独立训练,并结合了机器学习和系统辨识技术,同时支持合作和竞争学习范式。为了增强解释性,我们对专家组合的突变进行了惩罚。实验结果验证了我们的方法的有效性,能够产生与目标现象紧密相似且可解释的模型组合。
Jan, 2024
本文介绍了由机器学习、人机交互研究员、医生和数据科学家联合开发的第一个交互式系统 GAM Changer,能够帮助领域专家轻松编辑广义加性模型(GAMs)并修复存在的问题,使其满足其知识和价值观。且该工具易于使用、符合编辑需要,可满足当前工作流程。
Jun, 2022
通过多种解释方法的聚合,我们提供了一种有效的方法来防御神经网络上的对抗性攻击,使其对于潜在攻击变得更加稳健。
Jul, 2020