将可解释性提升机应用于科学图像数据
使用最小绝对收缩与选择算子(LASSO)的简单解决方案可以通过重新加权各个模型项并删除不相关的项来引入稀疏性,从而使易解释的增强机模型在高维度环境中保持透明度和相对较快的评分时间。
Nov, 2023
在物理科学中,图像数据的稳健特征表示需求日益增长,我们考虑到包括量子信息科学在内的许多领域已经广泛采用广义上的二维数据的图像获取。传统的图像特征虽然在这些情况下被广泛使用,但由于牺牲可解释性以换取高准确性,它们的使用正在迅速被基于神经网络的技术取代。为了改善这种权衡,我们提出了一种基于合成数据的技术,能够产生解释性特征。我们利用可解释性提升机 (Evidence-Based Boosting Machines, EBMs) 表明,这种方法在不牺牲准确性的前提下提供了更好的可解释性。具体而言,我们展示了在量子点调谐的背景下,这种技术能够带来有意义的益处,因为目前在该领域需要人为干预。
Feb, 2024
机器学习方法在自动早期诊断阿尔茨海默病方面展示了巨大的潜力。本研究提出了一种结合可解释性增强机器(EBM)和基于深度学习的特征提取的框架,以高维成像数据为基础有效识别阿尔茨海默病及认知下降。该框架具有可解释性并通过提供每个特征的重要性来解释决策。研究结果表明,该框架在阿尔茨海默病和认知下降的分类中表现出优异的准确性和面积下曲线(AUC),且显著优于使用体积生物标志物或端到端卷积神经网络(CNN)的 EBM 模型。
Aug, 2023
通过评估一种高效的可加性模型,本研究在三个热门混合交通数据集上对交通预测进行了评估,结果显示该模型在预测行人目的地方面表现竞争力,对以车辆为主的数据集则提供较为适度的预测,而透明的训练模型使我们能够分析特征的重要性和相互作用,并提供预测解释的质量性示例。
Feb, 2024
本研究证明在可解释的机器学习模型 Explainable Boosting Machines (EBMs) 中添加差分隐私可以保证隐私同时获得最先进的准确性,同时提供准确的全局和局部可解释性。
Jun, 2021
通过使用替代交叉功能选择、集成功能和模型配置技术等新方法,改进了可解释性较强的 EBM 模型,以提高其可靠性和解释性,并在三个基准数据集上进行了验证。
Jul, 2023
DimVis 是一个利用监督可解释的增强机器模型的可视化工具,通过交互式探索 UMAP 投影来提供高维数据分析的特征相关性解释,在转化复杂数据集为简单视觉表示时,增加了解释性,并解决了引入人为失真和解释性问题的困扰。
Feb, 2024
介绍了通过解释性表现组合、数据采样和解释生成构建和评估定制模块化替代解释器的过程的手册,以帮助了解人工智能和机器学习算法的可解释性技术。
Sep, 2022