加性特征归因方法:流体动力学和热传递的可解释人工智能综述
研究为什么一个模型做出某个特定的预测与预测准确性一样重要, 然而对于像集成或深度学习模型这样的复杂模型,即使是专家也难以解释其高精度,因此需要各种方法来帮助解释预测,其中一个新方法,SHAP(Shapley Additive Explanations),通过为每个特征指定一个重要性值来解释预测。
May, 2017
该文章主要讲述了机器学习在流体力学中的应用历史、现状和未来机会。通过机器学习的方法,可以从大量数据中提取有关流体力学的知识,进而优化流体力学模型,并自动化流体流动控制和优化相关任务。
May, 2019
本文介绍了ScalarFlow,这是第一个大规模真实烟雾柱重建数据集。我们提出了一个准确的物理基础重建框架,其中包括估计难以观测的流入区域和一种有效的规则化方法。我们的数据集包含复杂和自然的自然驱动流,并演变至湍流,并包含可观测的标量传输过程。因此,ScalarFlow数据集适用于计算机图形,视觉和学习应用。我们进一步展示了许多潜在应用领域之一:第一种感知评估研究,这表明捕获流的复杂性要求规则求解器进行巨大的仿真分辨率,以至少重新创建包含在捕获数据中的自然复杂性的一部分。
Nov, 2020
使用可解释的深度学习方法,首次探讨了流场内相互作用的相干结构。对湍流通道的瞬时速度场进行卷积神经网络预测,使用博弈理论算法评估每个结构对于预测的重要性,并发现了这些结构与流动动力学之间的因果联系。
Feb, 2023
本文探讨了非对称Shapley值(ASV),一种流行的SHAP加法局部解释方法的变体。ASV提出了一种改进模型解释的方式,将已知的因果关系考虑进去,也被认为是测试模型预测中的不公平歧视的一种方式。同时,该方法对Shapley值中的对称性进行放松可能会导致直观相悖的结果,不适合根本原因分析。我们证明了ASV在广义可加模型(GAM)下具有良好性质,并通过理论结果支持了我们的观点。最后,我们使用梯度提升和深度学习模型在多个实际数据集上演示了非对称归因的使用情况,并将结果与不使用受限的模型族进行了比较。
Oct, 2023
我们研究了后事解释型人工智能方法中的不确定性,并提出了一种修改基于LIME的算法中抽样密度的相对复杂度测量方法,以帮助不同的解释算法实现更紧密的置信水平。
Nov, 2023
解释性人工智能的研究领域试图开发提供复杂机器学习方法如何进行预测的见解的方法。在这项工作中,我们探讨了高斯过程回归(GPR)背景下的特征归因问题,并在现有文献的基础上以原则性的方法定义了特征归因。我们展示了尽管GPR是一种高度灵活的非参数方法,但我们可以导出解释性的闭式表达式用于特征归因。使用Integrated Gradients作为归因方法时,我们表明GPR模型的归因也符合高斯过程分布,从而量化了由于模型的不确定性而产生的归因的不确定性。我们通过理论和实验证明了这种方法的多功能性和稳健性。我们还表明,在适用的情况下,GPR归因的精确表达式比目前在实践中使用的近似方法更准确且计算成本更低。
Mar, 2024
机器学习模型的决策过程解释对于确保其可靠性和公平性至关重要。我们提出了一个统一框架,通过四个诊断属性实现了突出和交互式解释的直接比较,并揭示了不同诊断属性方面各解释类型的优势。突出解释对模型预测最为忠实,而交互式解释对于学习模拟模型预测提供了更好的效用,这些认识进一步凸显了未来研究发展结合方法以提高所有诊断属性的需求。
Jun, 2024
本文探讨了如何通过机器学习技术提升计算流体动力学(CFD)任务的最新进展,识别相关文献中的研究空白。我们提出了一种新分类,并重点分析了机器学习在CFD中的各类应用,包括逆设计和控制方面的重要进展,最终发现机器学习将在提高模拟精度、减少计算时间及支持更复杂的流体动力学分析方面具有显著影响。
Aug, 2024