- 隐私与可解释性之间的权衡:异常检测的差分隐私分析
我们的研究利用可解释的人工智能(XAI)和差分隐私(DP)之间的权衡,通过 SHapley Additive exPlanations (SHAP) 和差分隐私 (DP) 进行异常检测(AD),并对不同的模型和各种数据集进行了全面评估,结果 - 弱学习器解释的组合以提高随机森林的解释和鲁棒性
通过组合弱学习者解释的鉴别平均值,可以提高集成方法中解释的鲁棒性。该方法利用后续的 SHAP 方法和随机森林集成进行实施和测试,并取得了成功的结果。通过定量测量获得的改进,并提供了一些关于集成方法中可解释性鲁棒性的见解。
- 简洁的互动感知解释
我们提出了一种将特征分割为显著相互作用的部分,并利用这些部分形成简明易解的加性解释的方法。实验证明,我们的解释比 SHAP 和 NSHAP 的解释更准确、更易理解。
- 使用 SHAP 和 LIME 的可证明稳定特征排序
基于多重假设检验的思想,我们提出了一种特征归因方法 RankSHAP,能够以高概率正确排列最重要的特征,同时保证了计算效率。在实证结果中,我们还基于之前的工作为 LIME 扩展了类似的结果,确保以正确的顺序选择最重要的特征。
- 一种新的事后解释比较度量方法和应用
本文提出了一种新的度量标准,Shreyan 距离,用于量化解释性系统之间的差异,并使用该距离对 SHAP 和 LIME 这两种解释性系统在回归和分类学习任务中进行比较,结论是解释性系统的一致性不仅取决于解释性系统本身的属性,还取决于学习任务 - 预测职业足球市场价值:可解释机器学习模型的见解
本文提出了一种创新的方法,利用可解释机器学习模型预测职业足球运动员的市场价值。使用从 FIFA 网站整理的数据集,我们采用集成机器学习方法结合 Shapley Additive exPlanations (SHAP) 来提供模型预测的详细解 - 故事告诉我!基于大语言模型的叙事驱动可解释人工智能
利用大型语言模型,引入了 XAIstories,通过 SHAP explanations 和 counterfactual explanations 为 AI 预测提供直观的解释。研究结果表明,XAIstories 可能成为真正解释和理解 - 事后 XAI 方法中的可预测性与可理解性:用户中心分析
评估 LIME 和 SHAP 两种常用工具的用户可理解性和可预测性,发现 SHAP 对于接近模型决策边界的样本提供的解释可理解性显著降低。此外,发现反事实解释和错误分类可以显著增加用户对机器学习模型决策的理解。根据研究结果,提出为未来的事后 - 利用模型结构信息高效计算 SHAP
本文提出了多种方法,可以在多项式时间内准确计算 SHAP 值,适用于不同类型的模型结构信息,包括已知功能分解、已知模型顺序和未知模型顺序,其中的方法在实际应用中计算效率高且准确性较高。
- SHAP@k: 高效和可能近似正确的(PAC)识别前 k 个特征
本文主要介绍了如何通过将 Top-k Identification Problem(TkIP)转化为探索 - 开发问题并利用多臂老虎机技术,改进 SHAP 方法在解决 TkIP 问题的样本效率。
- 使用机器学习和 Shapley 加性解释(SHAP)方法对分布式拒绝服务(DDoS)攻击检测进行分类和解释
该研究提出了一个框架,利用机器学习和可解释的人工智能技术,分类和识别 DDoS 攻击的合法流量和恶意流量,在使用 SHAP 进行解释后的分类器模型中,该模型的性能表现高于 99%的准确性。
- 基于 Transformer 的构架在不良药物事件提取中的广泛评价
本研究对 19 种基于 Transformer 的模型在非正式文本中进行 ADE 抽取进行了评估和分析,并使用 SHAP 等技术探究了模型分类、预训练领域和大小、以及训练方式等因素对模型性能的影响,为进一步提高数字药物监管工作提供了实证分析 - 使用 SHAP 特征重要性和模糊认知地图测量隐含偏见
本文运用三步方法将特征重要性与隐性偏见相结合,结果说明了仅使用特征重要性作为衡量隐性偏见的方法具有风险,并且受保护特征所受到的偏见程度可能取决于特征的编码方式。
- 利用语义视觉先验解释视觉和语言生成模型
使用 SHAP 为基础的框架,可以在具有语义先验的视觉背景下提取任意数量的特征,从而可生成高度有意义的视觉解释并达到比传统方法更低的计算成本及更好的语义表达能力。
- XAISuite 框架及解释系统不协调的影响
本文比较两种解释系统(SHAP 和 LIME)的解释一致性,使用 14 种机器学习模型和 4 个数据集进行了实验,并得出两个结论:解释重要性的大小不重要;SHAP 和 LIME 重要性得分的相似度不能预测模型的准确性。此外,本文构建了一个名 - 使用深度离线强化学习实现全麻期间安全的丙泊酚剂量控制
提出了基于数据驱动增强学习算法的策略约束 Q-Learning (PCQL) 以解决学习麻醉策略在真实临床数据集上的问题,并通过实验证实了 PCQL 相对于基线方法的性能优势,在更少的总剂量下保持和麻醉师参考剂量的一致性,对病人的生命体征更 - 临床数据可解释人工智能方法的实证比较:以创伤性脑损伤为例的案例研究
利用结构化表格和时间序列生理数据实现了创伤性脑损伤 (TBI) 的短期和长期预测模型,使用六种不同的解释技术分析了局部和全局的预测模型,并对每种方法的优缺点进行了比较,发现 SHAP 是最稳定的,且保真度最高,但理解度低。
- 运用可解释模型预测排球比赛结果的案例研究
本文探讨了一种两阶段的可解释的人工智能方法,用于预测巴西排球联赛中比赛的结果。该方法使用支持向量机和深度神经网络来获得预测性能,并使用 ProtoDash 和 SHAP 构建数据实例的后处理解释说明模型的预测。结果表明,模型预测的解释有效。
- 美国谋杀案清案率预测的可解释机器学习
本文探讨了可解释机器学习在美国国家和州层面上的被害人身份预测和罪犯抓捕中的应用,并使用了 XGBoost 和 SHAP 方法进行建模和解释特征,结果显示应用可解释机器学习算法有助于提高犯罪抓捕率和警察表现。
- 对抗 Shapley 加性解释
本文提出了一种新的 SHAP 方法,Counterfactual SHAP,以增强和澄清可操作性和特征归因之间的联系,通过使用反事实信息构建背景数据集,在许多合成示例中展示了 Shapley 值在可操作性场景中仔细考虑背景数据集的必要性,并