一种基于可解释机器学习的分析顾客在线数据以识别产品属性重要性的方法
通过使用机器学习模型和可解释的 AI 技术,我们对影响审美偏好的属性展开研究,通过数据挖掘和多种机器学习模型的比较,揭示了影响图像美学评分的属性及其相互作用的作用,以期能深入理解影响审美判断的复杂性。
Nov, 2023
面向可解释人工智能(XAI)的高速范式转变已在近年来出现。高度复杂的机器学习(ML)模型在许多智能任务中蓬勃发展,而问题开始从传统的有效性度量转向更深层次的问题:该模型告诉我关于我的数据什么,它是如何得出这些结论的?XAI 和建模技术之间的不一致可能对这些解释性方法的效力产生质疑。为了解决这些问题,我们提出了一种针对流行的 XAI 的模型不可知方法 SHapley Additive exPlanations(Shap)进行系统的扰动分析。我们设计了一些算法,在动态推理的设置下生成相对特征重要性,这些设置针对一套流行的机器学习和深度学习方法,以及允许我们量化静态情况下生成解释的质量的度量指标。我们提出了特征重要性方法论的分类体系,度量了一致性,并观察了几个数据集中解释模型之间的可量化相似性。
May, 2024
本文介绍了可解释人工智能(XAI)的核心目标,即根据预测结果赋予机器学习模型特征的相对重要性。通过对功能归属的精确计算,研究表明该任务是非常重要的,并且之前提出的一些公理化聚合代表了过去研究中探讨的多个权力指数示例。此外,本文探讨了如何将一些广泛使用的权力指数用作特征重要性评分,并提出了满足可解释人工智能的新颖特征重要性评分。最后,文章对最知名的权力指数在提出的指标方面进行了深入分析。
May, 2024
该研究通过分析一个能源零售商的 220,185 位客户数据,使用可解释人工智能方法预测交叉销售,并证明 SHAP 方法提供的解释对实际买家有效,进一步阐明了信息系统、可解释人工智能和关系营销的相关研究意义。
Aug, 2022
本研究提出了一个新的机器学习模型解释框架 FAE(Formulate,Approximate,Explain)。该框架利用了 Shapley 值和博弈论方法进行解释,并提供了置信区间和对比解释来解释黑盒子模型在不同数据集上的结构。
Sep, 2019
这篇论文提出了一个简单的论点:Shapley 值可能会给出误导性的相对特征重要性量度,从而不仅会将更多的重要性分配给与预测无关的特征,而且会给与与预测相关的特征更少的重要性,这对于高风险应用领域中相对特征重要性的许多提议使用产生了挑战。
Jun, 2023
研究为什么一个模型做出某个特定的预测与预测准确性一样重要,然而对于像集成或深度学习模型这样的复杂模型,即使是专家也难以解释其高精度,因此需要各种方法来帮助解释预测,其中一个新方法,SHAP(Shapley Additive Explanations),通过为每个特征指定一个重要性值来解释预测。
May, 2017
本研究提出了一种重新训练流程,使用 SHapley Additive explanations 值,从 XAI 入手并利用最先进的技术来增加模型的透明度和可信度,在人数统计场景和图像分类数据集上进行了实验验证,结果表明使用 SHAP-based 重新训练方法比使用相等加权训练方法更有效,分别提高了 4% 和 3% 的准确率。
Oct, 2022
通过细节化和有连续性的产品信息来解决电子商务中的个性化、需求预测和产品规划难点,本文详细描述了 ASOS 在此方面的架构和方法,并展示了它在混合推荐系统中的应用。
Mar, 2018
为确保机器学习模型的伦理使用,该论文提出了一种基于模型不可知的可加特征归因算法(KernelSHAP)和数据协作方法的可解释数据协作框架,以应对难以解释的黑盒子模型。
Dec, 2022