交叉特征选择消除虚假交互作用和单特征占主导地位的可解释提升机
使用最小绝对收缩与选择算子(LASSO)的简单解决方案可以通过重新加权各个模型项并删除不相关的项来引入稀疏性,从而使易解释的增强机模型在高维度环境中保持透明度和相对较快的评分时间。
Nov, 2023
针对计算机视觉中的不透明模型解释困难的问题,同时受到科学研究对可解释的模型的需求,该研究提出了将易于解释的 EBM 模型扩展至科学图像领域的方法,并通过 Gabor 小波变换对图像数据进行处理,改进了当前图像可解释性方法。
May, 2023
本研究提出了一种不受模型约束的框架,可以同时优化监督式机器学习模型在表格数据上的预测性能和可解释性,其中可解释性通过特征稀疏性、特征交互稀疏性以及非单调特征效应的稀疏性进行量化。
Jul, 2023
机器学习方法在自动早期诊断阿尔茨海默病方面展示了巨大的潜力。本研究提出了一种结合可解释性增强机器(EBM)和基于深度学习的特征提取的框架,以高维成像数据为基础有效识别阿尔茨海默病及认知下降。该框架具有可解释性并通过提供每个特征的重要性来解释决策。研究结果表明,该框架在阿尔茨海默病和认知下降的分类中表现出优异的准确性和面积下曲线(AUC),且显著优于使用体积生物标志物或端到端卷积神经网络(CNN)的 EBM 模型。
Aug, 2023
本研究证明在可解释的机器学习模型 Explainable Boosting Machines (EBMs) 中添加差分隐私可以保证隐私同时获得最先进的准确性,同时提供准确的全局和局部可解释性。
Jun, 2021
DimVis 是一个利用监督可解释的增强机器模型的可视化工具,通过交互式探索 UMAP 投影来提供高维数据分析的特征相关性解释,在转化复杂数据集为简单视觉表示时,增加了解释性,并解决了引入人为失真和解释性问题的困扰。
Feb, 2024
本文介绍了一种基于原型的可解释模型,在应对特定医学数据集的问题时,不仅能够具备可解释性,还能保持高性能。通过对一个合成和两个真实医学数据集的详细分析,这些模型得以证明在处理医学数据方面的有效性,可成为医学诊断提供支持。
Jun, 2022
我们提出了一种基于 “专家混合” 的综合框架,以解决传统模型和机器学习方法在处理复杂系统时的准确性和解释性之间的平衡问题。通过数据驱动的融合多样化的本地模型,充分利用基于原则的先验知识,我们的解决方案支持专家的独立训练,并结合了机器学习和系统辨识技术,同时支持合作和竞争学习范式。为了增强解释性,我们对专家组合的突变进行了惩罚。实验结果验证了我们的方法的有效性,能够产生与目标现象紧密相似且可解释的模型组合。
Jan, 2024
通过评估一种高效的可加性模型,本研究在三个热门混合交通数据集上对交通预测进行了评估,结果显示该模型在预测行人目的地方面表现竞争力,对以车辆为主的数据集则提供较为适度的预测,而透明的训练模型使我们能够分析特征的重要性和相互作用,并提供预测解释的质量性示例。
Feb, 2024