- GECOBench: 一个用于评估解释中偏见量化的性别控制文本数据集和基准
此研究探讨了大型预训练语言模型的可解释性人工智能技术及其对性别偏见的影响,并创建了一个性别控制文本数据集,通过对预训练模型的不同微调程度进行 XAI 方法的评估,展示了解释性能与微调层数之间的关系。
- EXACT:用于机器学习模型解释方法经验基准测试的平台
该研究论文介绍了一个旨在改善复杂机器学习模型可解释性的解释性人工智能(XAI)领域的发展趋势,并提出了一个初始的基准测试平台 EXACT,该平台结合了各种基准数据集和新颖的性能评估指标,为评估 XAI 方法提供了一个标准化的基础。
- 使用带有注意机制和 SHAP 的编码器 - 解码器预测和解释助听器使用
通过使用具有注意机制的编码器 - 解码器模型(attn-ED)预测未来助听器的使用情况,并利用 SHAP 解释影响助听器使用情况的因素,本研究提出一种新的框架,旨在改善听力丧失患者的满意度和生活质量,减少社会和经济负担,并为 AI 模型在医 - 利用反事实生成减轻文本毒性
通过使用反事实生成方法以及可解释性人工智能(XAI)领域的方法来目标化和缓解文本毒性,我们提出了一种文本解毒方法,该方法能够在去除有害含义的同时保留初始非毒性含义,并且对三个数据集进行比较实证研究和评估结果表明,最近发展的 NLP 反事实生 - 解释性人工智能(XAI)中的虚假安全感
通过分析有关 AI 规定和政策的立法进展,本研究讨论了可解释性人工智能(XAI)的技术现状及其对 AI 治理的潜在威胁,指出需要明确、合理的立法和政策以解决 AI 解释能力的问题。
- 交互作用:一种基于用户交互的图像分类模型解释方法
通过用户互动,我们提出了一种基于互动的可解释的 AI 方法,通过修改图像来观察分类结果的变化,使用户能够辨别影响模型决策过程的关键特征,从而将他们的心智模型与模型逻辑对齐。该方法通过用户参与和理解为可解释的 AI 系统提供了更直观和易于访问 - 可解释人工智能对人类表现的影响:对显著性图行为后果的系统综述
68 个用户研究的系统综述发现,显著性图可以增强人类表现,但也常见到零效应甚至负效应。这些效应受多个因素的调节,包括人类任务、AI 性能、XAI 方法、待分类的图像、人类参与者和比较条件等。图像任务中的效益不如 AI 任务中常见,但效果取决 - 可解释人工智能用于嵌入式系统设计:基于静态冗余 NVM 存储器写入预测的案例研究
本研究探讨了可解释的人工智能(XAI)在使用机器学习(ML)设计嵌入式系统中的应用。以静态静默存储预测为案例研究,本文提出了一种方法论,包括发展相关的机器学习模型,解释静默存储预测,并通过两种最先进的模型无关 XAI 方法分析静默存储的产生 - OpenHEXAI:可解释机器学习的人本评估的开源框架
OpenHEXAI 是一个开源框架,旨在解决人工智能可解释性方法的人类中心评估的挑战,它包括多样的基准数据集、预训练模型和事后解释方法、易于使用的用户研究 Web 应用、全面的评估指标以及实验证明最佳实践的工具。基于 OpenHEXAI,该 - 再探常识性检查:修复模型参数的随机化测试
通过引入 Smooth MPRT 和 Efficient MPRT 两种改进方法,本文提出了对 Model Parameter Randomisation Test (MPRT) 进行适应的新方法,以改善评估结果的可靠性,从而实现对 eXp - 电动重型车辆辅助能源消耗预测
准确的能源消耗预测对于优化电动商用重型车辆的运营至关重要,本文介绍了一种基于子集训练的回归模型,该模型在复杂问题中将其拆分为更简单的子问题,以实现更好的回归性能和解释性。
- GCPV: 用于解释检查 CNN 特征空间的导向概念投影向量
提出了一种名为 GCPV(local-to-global Guided Concept Projection Vectors)的方法,该方法通过生成局部概念向量并将其推广为全局概念向量,来解决计算机视觉卷积深度神经网络(CNN)的可解释性和 - 利用局部特征解释场景文本识别模型
本文研究了可解释人工智能(XAI)在场景文本识别(STR)解释性方面的问题,并提出了一种新的方法 STRExp,以考虑局部解释,即个体字符预测解释。该方法在不同的 STR 数据集和 STR 模型上进行了基准测试和评估。
- 早期作物分类的可解释人工智能 (XAI)
我们提出一种通过使用可解释的人工智能(XAI)方法来提前进行作物分类的方法。我们的方法包括训练一个基准作物分类模型,以进行层内相关传播(LRP),从而可以确定显著的时间步长。我们选择了一些重要的时间索引来创建可能的最短分类时间范围。我们确定 - TRIVEA:透明排名解释:黑盒算法排名的可视化解释
使用算法排序和可解释的 AI 方法实现透明的排名解释,通过可视化解释模型拟合和属性对排名的影响来探索和解释复杂的多属性排名数据的子集和分组,在不了解黑盒排名模型的情况下,帮助具备数据科学训练的最终用户透明地推理排名的全局和局部行为。
- 解析 AI 归因方法的精确基准测试
我们提出了一种新的评估方法,用于基准测试最先进的可解释 AI 归因方法,该方法由合成的分类模型及其衍生的地面实况解释组成,该方法提供了关于 XAI 方法输出的更深入的洞察。
- ICML任务无关的可解释人工智能是否是一种神话?
本文提出了一个框架来统一解释人工智能(XAI)领域的挑战。尽管 XAI 方法可以为机器学习模型提供有用的输出,但研究人员和决策者需要注意这些方法的概念和技术限制,这些限制通常导致这些方法本身变成黑匣子。作者使用图像、文本和图形数据,研究了涉 - MM遥感图像分类的一次属性可解释人工智能方法的定量分析
本文通过量化评估解释性人工智能技术对遥感图像分类的影响,深入分析了不同类型模型选用 XAI 方法所获得的结果,提供了选择最合适的解释性方法来了解模型决策过程的建议和见解。
- ICML在抑制变量存在时 XAI 方法的理论行为
本研究在分析各种流行的可解释人工智能(XAI)方法在高斯条件下的分类问题上的表现后发现,大多数研究方法在存在相关噪声的情况下会将与预测目标无统计关系的抑制特征归因于特征重要性,从而证明了 XAI 方法存在的局限性。
- 心电图分析深度学习解释:审计和知识发现的基础模块
本研究提出了深度学习及可解释 AI 方法结合,从局部和全局两个角度对心电图数据进行分析,提高了模型的透明度,同时发现了心肌梗塞亚型等心脏疾病的关键特征,为内部审核和疾病研究提供了有力工具。