深度学习中的可解释 AI 技术用于轴承故障检测
制造业中的深度学习模型的不透明性对故障检测和诊断构成了重要挑战。本文对可解释人工智能(XAI)的工具和技术进行了综述,探讨了各种 XAI 方法在增加人工智能决策透明度方面的作用,特别是在涉及人类的关键情景中。同时,我们还讨论了当前的局限性以及未来潜在的研究,旨在在改善信任度的同时平衡可解释性与模型性能,以应用于关键工业用例的人工智能应用。
Apr, 2024
该研究提出了一种新的 FaultD-XAI 方法,即将数据从合成数据转移到现实旋转机械领域中,使用可解释的人工智能(AI)方法诊断机器故障,以解决 AI 模型的可解释性和训练数据标注困难等问题。实验结果表明,该方法在将数据移植到不同领域方面表现出很好的性能,因此有望成为一种可行的 Fault diagnosis 方法。
Oct, 2022
可解释人工智能(Explainable Artificial Intelligence)通过提供准确、一致且稳定的解释,解决机器学习中黑盒模型的透明度问题,其中基于泰勒展开的 T-Explainer 成为了一种有效的特征归因方法。
Apr, 2024
通过数据挖掘方法和应用的角度,对深度神经网络进行可解释人工智能(XAI)的综合、数据中心的研究,并将现有工作分为三类:对深层模型的解释、对训练数据的影响以及领域知识的洞察。
Jan, 2024
我们提出了一种新的评估方法,用于基准测试最先进的可解释 AI 归因方法,该方法由合成的分类模型及其衍生的地面实况解释组成,该方法提供了关于 XAI 方法输出的更深入的洞察。
Aug, 2023
该研究旨在开发一种可解释的人工智能(XAI)框架,以实现在车削过程中对工具磨损进行可理解的预测。通过使用随机森林算法作为监督式机器学习(ML)分类器,以加速度、声学、温度和主轴转速等输入特征进行二元分类训练,该分类器可用于预测切割过程后刀具的状态,以表示切割刀具是否可用或失效。在训练过程中,使用了 Shapley 准则来解释训练后的 ML 分类器的预测。具体而言,识别了决策和分类中每个输入特征的重要性,以解释 ML 分类器预测的推理。在对所有测试数据集实施 Shapley 准则后,发现刀具温度是确定可用和失效切割刀具分类的最重要特征。因此,该研究展示了 XAI 在工具磨损预测中为加工操作者提供诊断和理解复杂的 ML 分类器的能力。
Aug, 2023
本研究探讨了如何在基于振动信号的深度神经网络所训练的轴承故障检测中利用已有的基于概念的解释技术,以确保人们对模型内部工作机制的理解,并通过验证底层假设的准确性来获得可信的结果。
Oct, 2023
本研究提出了一种重新训练流程,使用 SHapley Additive explanations 值,从 XAI 入手并利用最先进的技术来增加模型的透明度和可信度,在人数统计场景和图像分类数据集上进行了实验验证,结果表明使用 SHAP-based 重新训练方法比使用相等加权训练方法更有效,分别提高了 4% 和 3% 的准确率。
Oct, 2022
通过人类实验,我们发现属性解释法在某些情况下会导致决策者做出更糟糕的决策,这一结果挑战了应用这些方法的普遍好处的假定,在可解释的 AI 研究中人类评价的重要性下应该得到重视。
Dec, 2020