透明风力涡轮机功率曲线模型的可解释性人工智能 (XAI)
该论文引入了可解释的人工智能框架,通过 Shapley 值和最新的可解释 AI for 回归方法,从 SCADA 数据中学习风力发电机功率曲线模型。研究结果表明,学习策略可以更好地指示模型的鲁棒性,比验证集或测试集错误更有用。本文提出了在风力涡轮机性能监测中利用 XAI 的方案,最终目标是选取更透明和鲁棒的数据驱动风力涡轮机功率曲线模型。
Apr, 2023
通过采用机器学习与可解释的人工智能技术,我们创建了五个个性化反馈的可视化方案,以帮助用户准确识别电力消耗数据的特定模式,并显示在具有已知可视化模式的界面上。我们的实验表明,这样的 XAI 可视化方案能够被用户准确理解和应用。
Aug, 2022
通过采用创新的人工智能方法(如梯度提升),提出了一种透明度与高准确性相结合的玻璃盒方法,用于风力发电预测,该方法能够有效解释全球和实例角度上的预测结果,并且相比大多数基准模型表现更好且与最佳神经网络模型相当,因此在可靠的风力发电预测中具有强大的竞争优势。
Oct, 2023
该研究通过分析一个能源零售商的 220,185 位客户数据,使用可解释人工智能方法预测交叉销售,并证明 SHAP 方法提供的解释对实际买家有效,进一步阐明了信息系统、可解释人工智能和关系营销的相关研究意义。
Aug, 2022
使用物理信息神经网络对来自 4 台风力发电机的历史数据进行回归建模,同时引入高效的证据层对预测进行不确定性估计,证明其与绝对误差一致,并为功率曲线定义了一个置信区间。
Jul, 2023
机器学习和深度学习在金融预测中越来越普遍,但是这些复杂模型缺乏透明度和可解释性,在金融等敏感领域使用具有挑战性。本文探讨了在金融领域中应用可解释性人工智能的好方法,强调数据质量、面向特定人群的方法、数据属性的考虑以及解释的稳定性的重要性。这些实践旨在应对金融行业的独特挑战和要求,并指导有效的可解释性人工智能工具的开发。
Nov, 2023
本研究介绍了 XAI 在气候研究中的应用,并评估了不同的解释属性,建立在先前的工作和训练多层感知器 MLP 和卷积神经网络 CNN 进行预测,我们发现 Integrated Gradients,Layer-wise relevance propagation 和 InputGradients 表现得很好。
Mar, 2023
本文介绍了将之前主要用于图像和文本领域的可解释人工智能(XAI)方法应用于时间序列上的新方法。作者提出了一种方法来测试和评估各种对于时间序列的 XAI 方法,并介绍了新的验证技术用以融入时间维度。作者进一步进行了初步实验来评估所选 XAI 方法的解释质量,并证明了在初步实验中,SHAP 方法的工作表现很强,但是像 DeepLIFT,LRP 和 Saliency Maps 等方法却更适用于特定的架构。
Sep, 2019
本研究旨在评估两种流行的可解释人工智能方法在医疗保健背景下解释预测模型的精确度,重点考虑是否产生与应用任务相一致的域适当表示,如何影响临床工作流程以及是否一致性,结果表明目前的技术还有改进的空间。
Jun, 2023
本文探讨不同非线性分类场景下,解释性人工智能模型的表现,并通过一系列实验测试发现,当前流行的 XAI 方法往往无法显著提高准确性基线和边缘检测方法,甚至在不同模型结构下产生非常不同的解释,存在误解的风险。
Jun, 2023