该论文提出了一种使用 Meijer G 函数的黑盒函数连续全局解释算法来解决机器学习模型可解释性问题,通过实验结果证明该算法可以高度准确地表示特征和特征交互的相对重要性。
Nov, 2020
提出了一种利用可微分的 CGP 编码进行多目标进化搜索的 MEMETIC 算法,以学习回归方程中的数值常量,在火星探测器热功率估算和通过陀螺定年法确定恒星年龄两个应用中,该方法显示出与机器学习的黑盒回归模型或手动匹配方法同等或更高的性能。
Jun, 2022
为了解释黑盒模型,本文提出使用决策树对其进行全局解释,并采用新的决策树提取算法避免过拟合,评估表明该方法正确率更高且可解释性更强。
May, 2017
本文提出了一种能够全局解释黑匣子机器学习模型的简单而有效的方法,即使用紧凑的二叉树 “解释树” 显式地表示隐含在黑匣子机器学习模型中的最重要的决策规则,而这个树是从贡献矩阵中学习得来的,通过递归地最大化区分空间之间分裂变量的平均贡献差来划分输入变量空间。我们通过多任务的机器学习模型诊断实验证明了我们方法的有效性,同时也便于人类理解机器学习模型。
Feb, 2018
提出了 BETA 框架,通过透明的逼近来解释任何黑盒分类器的行为,允许用户交互式地探索用户感兴趣的不同子空间中黑盒模型的行为。实验评估表明,与现有基线相比,该方法可以生成高度紧凑,易于理解,但准确的各种预测模型的逼近。
Jul, 2017
使用模型树作为替代模型,将特征空间通过决策规则划分为可解释的区域,然后利用基于加性主效应的可解释模型来近似黑盒模型的行为,平衡可解释性和性能,对比了四种模型树算法,最后提供了用户特定的推荐概述。
Oct, 2023
我们提出了一种模型无关的可解释替代方案,用于全局和局部解释黑盒分类器。该替代方案使用相关系数自动发现变量的直观分组,并将其嵌入到替代决策树中,以提高其可理解性。在宏观经济数据库上的实验结果表明,在保持替代模型准确性和保真度的同时,该方案提高了人类可解释性。
Jun, 2019
本文提出了使用程序作为模型无关解释的方法,通过基于模拟退火的原型程序归纳方法,对黑匣子分类器进行本地行为的近似,生成的解释对于多个分类器具有直观性和准确性。
Nov, 2016
本论文提出了一种新的方法,利用估计梯度来逐渐自适应地优化机器学习中的未知函数,并验证了该方法在低维和高维问题上的实验性能,证明了在调整高维超参数时我们的方法的优越性。
本文综述了符号回归方法的优缺点,探讨了其在机器学习、深度学习等应用领域中以数据驱动的模型发现方法所取得的显著进展。
Nov, 2022