- 检测机器生成文本:不仅仅是 “人工智能 vs 人类” 和解释性复杂
本文提出一种新的三元文本分类方案,包括 “未决” 类别,研究了如何使检测结果更易理解,重点在于为用户提供清晰明了的解释。通过构建新的数据集,使用先进的检测方法和最新的 LLMs,该研究发现 “未决” 类别对于文本检测的可解释性至关重要,并提 - 输入特征归因分析的统一框架
机器学习模型的决策过程解释对于确保其可靠性和公平性至关重要。我们提出了一个统一框架,通过四个诊断属性实现了突出和交互式解释的直接比较,并揭示了不同诊断属性方面各解释类型的优势。突出解释对模型预测最为忠实,而交互式解释对于学习模拟模型预测提供 - 提高多变量时间序列分类的解释方法评估和可操作性
基于多元时间序列分类的解释方法研究,通过评估和改进解释方法的精确度和效率,展示解释方法在频道选择的应用中具有的可操作性,并展示基于扰动法的解释方法在各种数据集、分类器和任务中的优势。
- 视频总结的多粒度解释集成框架
本论文提出了一个综合的视频摘要的多粒度解释框架,通过整合在片段级别和更细粒度的视觉对象级别产生解释的方法,通过使用模型无关的基于扰动的方法来在片段级解释视频摘要结果,并引入了将视频全景分割结果与基于扰动的解释方法相结合的新方法来产生对象级解 - CVPR具有鲁棒性和可解释性的细粒度视觉分类与迁移学习:双车道框架
通过使用双行道框架 (DCF) 这一自动的最佳训练解决方案搜索框架,本研究填补了缺乏方法来系统地决定最佳训练策略的不足,并证实了 DCF 在精细化视觉分类任务中引导鲁棒且解释性人工智能解决方案发展的潜力。
- ChatGPT 能够进行解释性推理吗?作为归纳推理的基准测试
这篇论文提出了一套用于评估 AI 程序进行解释性推理能力的基准,使用这些基准来确定目前领先的生成式 AI 模型 ChatGPT 在进行解释性推理方面的能力。基准测试结果表明,ChatGPT 在多个领域中能够进行创造性的推理和评估推理,尽管其 - 神经网络特征评估中的不一致问题探究
近年来,神经网络展示出了从原始数据中识别复杂模式和关系的卓越能力。然而,理解这些黑盒模型的内部机制仍具挑战性,但对于高风险决策至关重要。我们的研究通过调查解释的基本和分布行为来解决这种困惑。此外,通过全面的模拟研究,我们展示了常见缩放和编码 - 基于逻辑的线性支持向量分类器及拒绝选项的解释
通过采用逻辑推理的方法,我们提出了一种在具有拒绝选项的线性支持向量分类器中,能够得到具有正确性和最小化特性的解释的形式化保证的途径,并将其与 Anchors 算法进行了比较,结果表明我们的方法能够以较短的时间得到较短的解释。
- DTOR: 决策树异常回归器解释异常
通过估算异常检测模型产生的异常分数,我们提出了决策树离群值回归器(DTOR),这是一种用于为单个数据点生成基于规则的解释的技术。我们的结果表明,DTOR 在具有大量特征的数据集中表现出良好的鲁棒性,并且与其他基于规则的方法相比,生成的规则一 - 解释性知识追踪调查
通过对可解释的知识追踪进行细致全面的分析,本文提供了人工智能和知识追踪领域的研究者一些基础和启发,旨在实现算法高准确性和用户对决策的可理解性、可靠性的提升。
- 分类稳健性与解释稳健性真的高度相关吗?通过输入损失函数的分析
该研究论文探讨了深度学习稳健性的关键领域,挑战了图像分类系统中分类稳健性和解释稳健性之间存在固有相关性的传统观念。通过一种利用聚类的新颖评估方法,有效评估解释稳健性,我们证明增强解释稳健性并不一定会使输入损失函数的梯度相对于解释损失变得更平 - 剔除 XAI 中的 X:关于可理解人工智能的呼吁
深度神经网络的可解释性问题可以通过采用不同的科学解释模型,避免当前解释模糊性而产生的困惑,更有助于用 “可理解的人工智能” 标签避免 XAI 的混淆。
- 弱学习器解释的组合以提高随机森林的解释和鲁棒性
通过组合弱学习者解释的鉴别平均值,可以提高集成方法中解释的鲁棒性。该方法利用后续的 SHAP 方法和随机森林集成进行实施和测试,并取得了成功的结果。通过定量测量获得的改进,并提供了一些关于集成方法中可解释性鲁棒性的见解。
- COLING提高瑞士判决预测的可解释性与公平性:在多语言数据集上进行基准测试
对法律判决预测系统中可解释性的评估至关重要,该研究利用瑞士判决预测数据集 (Swiss Judgement Prediction) 研究了多语言 LJP 模型的可解释能力和公平性,并通过全面的支持和反对判决的理由,评估了基于 BERT 的单 - 解释 Ising 模型的机器学习解决方案
使用神经网络和哈密顿的对称性来解释和预测具有大数据维度的物理应用中的铁磁伊辛模型的临界温度。
- 大型语言模型中的最佳解释推理
利用 IBE-Eval 框架对大型语言模型(LLMs)的解释进行评估,通过考虑一致性、简洁性、连贯性和不确定性等逻辑和语言特征,从中选择最可信的解释,并成功识别出最佳解释的可能性高达 77%(约高于随机 27%),同时更高效和可解释。此方法 - 融合基于检索的因果学习与信息瓶颈的解释性图神经网络
开发了一种新的可解释因果图神经网络框架,结合图信息瓶颈理论和基于检索的因果学习,能够半参数地检索关键子图并通过因果模块压缩解释性子图,在真实世界的多样解释场景中表现出比现有方法更高的准确率和 32.71% 更高的预测能力。
- 基于双特征和示例的解释方法
提出了一种基于选择围绕受解释实例的有限数据点构建的凸包的本地和全局解释新方法。该方法通过考虑由产生的多面体的极端点的凸组合形式的实例的双重表示来获得解释的特征重要性值。该方法被视为著名模型 LIME 的修改版本,具有例子为基础的解释方法实现 - 可解释的贝叶斯优化
提出了一种基于规则的解释性方法 TNTRules,通过多目标优化生成高质量解释,从而弥合 Bayesian optimization 和 XAI 之间的差距。通过对基准优化问题和实际超参数优化任务的评估,证明了 TNTRules 在生成高质 - PUPAE:直观且可操作的时间序列异常解释
近年来,在时间序列异常检测方面取得了显著进展,然而,在检测到异常后,我们能够解释它吗?本文介绍了一种领域无关的反事实解释技术,用于产生时间序列异常的直观且可行动的可视化和基于文本的解释。