物理学中的可解释机器学习
我们提出了傅里叶基核熵估计(FKEA)方法,利用 FKEA 的近似特征谱来高效估计生成数据的多样性评分,并展示了其在大规模生成模型评估中的可扩展性和解释性。
Jul, 2024
该论文提出了一种名为全局交互模式学习 (Global Interactive Pattern learning) 的新颖内在可解释方案,它通过引入可学习的全局交互模式来明确解释决策,在图分类任务上具有显著的解释性和竞争性的性能。
Jul, 2024
本篇论文着重于改进语法错误修正(GEC)度量的可解释性,提出了基于参考的评估策略 CLEME2.0,描述了 GEC 系统的四个基本维度,即击中修正、错误修正、欠修正和过修正,综合这些维度对系统进行评估,能够获得高度一致性的人工判定结果。在两个人工判定数据集和六个参考数据集上进行了大量实验证明了该方法的有效性和鲁棒性。经同行评审后,所有代码将会发布。
Jul, 2024
我们提出了 Multi-State Action Tokenisation (M-SAT) 方法,针对具有多离散行动空间的图像环境对决策变压器模型的性能进行改进,通过将行动进行细分并结合辅助状态信息进行标记化,实现了在这些环境中模型性能的提升。在具有多离散行动空间和基于图像状态空间的 ViZDoom 环境中进行的实验表明,M-SAT 在没有额外数据或大量计算开销的情况下优于基准的决策变压器模型,并且我们发现去除位置编码对 M-SAT 的性能没有负面影响,并在某些情况下甚至会提升性能。
Jul, 2024
本文提出了利用已有的视觉 - 语言模型 (Visual-Language Model, VLM) 联合嵌入空间的概念对立解释来解释黑盒分类器结果的方法,无需注释的数据集。通过利用胸部放射学报告中的文本概念和基于胸部放射学的预训练 VLM,解释了三种常见的心胸病理,证明了我们的方法生成的解释在语义上是有意义的,忠实于潜在的病理。
Jun, 2024
该研究比较了事后方法和自解释方法在检测敏感模式和决定性模式方面的有效性,发现事后方法更适用于敏感模式的解释,而某些自解释方法在检测决定性模式方面表现出较强且稳定的性能。此外,研究还提供了关于改进这些解释方法可靠性的宝贵见解,例如通过对同一任务进行多模型训练并对事后解释进行集成,可以有效地揭示任务的决定性模式。
Jun, 2024
模型解释中,遗漏数据与解晰人工智能相关联的相关领域的一个主要因素,在本文中,经验性地研究了各种填充方法对 Shapley 值(一种解释复杂机器学习模型的流行技术)的计算的影响。通过比较不同填充策略,评估其对 Shapley 值决定的特征重要性和交互作用的影响,理论上分析了缺失值对 Shapley 值的影响。结果表明,填充方法的选择可能引入偏差,从而改变 Shapley 值,影响模型的解释性,强调了在机器学习模型中考虑填充效应以确保可靠洞见的重要性。
Jun, 2024
开发了一种人工智能工具,通过远程皮肤病学为基底细胞癌(BCC)的诊断提供了可解释的支持,从而加快了转诊流程并优化了资源利用。
Jun, 2024
Graph neural network 模型 GKAN 通过使用基于样条函数的边缘激活函数,提高了准确性和解释性,在节点分类、链接预测和图分类任务上胜过了最先进的图神经网络模型。此外,GKAN 的设计本身提供了对模型决策过程的清晰见解,消除了事后解释性技术的需求。
Jun, 2024