可解释 AI 增强横向销售 —— 以能源零售为例
通过采用机器学习与可解释的人工智能技术,我们创建了五个个性化反馈的可视化方案,以帮助用户准确识别电力消耗数据的特定模式,并显示在具有已知可视化模式的界面上。我们的实验表明,这样的 XAI 可视化方案能够被用户准确理解和应用。
Aug, 2022
机器学习模型的不透明性威胁到其可解释性,可解释人工智能(XAI)技术通过提供解释 ML 模型内部决策过程的框架和方法来解决这一挑战,同时维护隐私的难题需要在理解 ML 决策和保护隐私之间找到平衡点。
Jun, 2024
通过整合可解释的人工智能技术与自适应学习,本论文提出了一种方法来增强能源消耗预测模型,重点处理数据分布变化。利用 SHAP 聚类方法,我们的方法能够为模型的预测结果提供可解释的解释,并利用这些洞察力来自适应地改进模型,平衡模型复杂度和预测性能。我们引入了一个三阶段的过程:(1) 获取 SHAP 值以解释模型的预测结果,(2) 通过聚类 SHAP 值来识别不同的模式和异常值,以及 (3) 根据得到的 SHAP 聚类特征来改进模型。我们的方法能够减轻过拟合并确保处理数据分布变化的鲁棒性。我们在一个包含建筑物能耗记录以及两个额外数据集的综合数据集上评估了我们的方法,以评估我们的方法在其他领域、回归和分类问题中的可迁移性。我们的实验结果表明,我们的方法在两种任务类型中均具有有效性,能够改善预测性能并提供可解释的模型解释。
Feb, 2024
该研究演示了可解释人工智能的多种方法,并与信用违约预测等任务进行了比较,提出了定量解释性的有意义见解,为开发负责任或以人为中心的 AI 系统提供方向和未来研究方向,有助于在高风险应用中采用 AI。
Jan, 2021
本文介绍了深度学习中可解释人工智能技术(XAI),提出了技术分类法并介绍了方法学、范畴和应用层次等主要原则,旨在建立可信、可解释和自说明的深度学习模型。此外,通过八种不同的可解释人工智能算法对图像数据进行了评估,讨论了这种方法的局限性,并提出了未来改进的潜在方向。
Jun, 2020
这篇论文通过对 Explainable AI 领域的研究进行统计元分析,得出了 Explainable AI 对于用户决策性能有积极的统计效应,但是并未表明解释对用户的决策性能产生了任何影响,有利于今后研究基于 AI 的非人类决策中人类因素的影响。
May, 2022
本论文以自动驾驶汽车为研究对象,研究了四种常见的可解释人工智能方法,即决策树、文本、程序和图示。研究表明,参与者倾向于使用语言解释,但通过决策树解释更能客观地理解汽车的决策过程,并且结果显示,计算机科学经验和观察汽车成功或失败的情况可以影响解释的感知和有用性,因此本研究提出,设计 XAI 系统必须考虑用户的特定需求和情境因素。
Jan, 2023
本文研究 Explainable Automated Machine Learning 在金融工程领域的整合,重点关注其在信用决策中的应用。研究表明,AutoML 和 XAI 的结合不仅提高了信用决策的效率和准确性,还增进了人与 AI 系统之间的信任和合作。结果强调了可解释性 AutoML 在改善 AI 驱动金融决策的透明度和责任性方面的潜力,与监管要求和道德考虑相一致。
Feb, 2024
最近几年,机器学习和人工智能在社会中的影响非常显著,但是其应用也引起了严重关切。解释性人工智能(XAI)致力于为人类决策者提供可理解的机器学习模型预测解释,是可信任人工智能的基石。本文调查了基于逻辑的解释性人工智能(XAI)的技术和研究领域,并指出了当前非严谨方法的误区。
Jun, 2024