- 利用疾病特定的注意力基础深度学习模型进行心电图心律失常检测
提出了一种新颖的针对短时心电图的疾病特异性注意力深度学习模型(DANet),包括软编码或硬编码波形增强模块,结合了预处理和两阶段监督训练,并应用于房室早搏检测问题,比基准模型表现出卓越的性能,可作为医生的诊断助手。
- DINOv2 岩石地质图像分析:分类、分割和可解释性
本研究通过比较不同分割技术在 CT 扫描岩石样本中的应用效果,特别关注 DINOv2 在地球科学中的可解释性、分类能力和分割能力,并发现 DINOv2 在超出其原始训练集的岩石图像分类和分割任务中表现优异。
- 卷积神经网络的网络反演
该论文介绍了一种简单而有效的网络反演方法,利用一个精心调制的生成器来学习经过训练的神经网络输入空间中的数据分布,从而使得可以重构出最有可能导致所需输出的输入。论文还讨论了网络反演的即时应用,包括解释性、可解释性和对抗样本的生成。
- SAFETY-J: 评估安全性的批判方法
利用会话对话和查询回复对多种情况下的安全性进行综合评估,SAFETY-J 提供了更细致、更准确的安全评估,从而提高了复杂内容场景中的评论质量和预测可靠性。
- 基于颜色监督扩散模型的 SAR 到光学图像转换
本研究介绍了一种创新性的生成模型,通过将合成孔径雷达(SAR)图像转化为更易理解的光学图像,提高了 SAR 图像的可解释性。实验结果表明,该模型在定量评估方面超过了以前的方法,并显著提高了生成图像的视觉质量。
- TransFeat-TPP:一种解释性深度协变量时间点过程
提出了基于 Transformer 的协变量时间点过程(TransFeat-TPP)模型,以提高深度协变量时间点过程(deep covariate-TPPs)模型的可解释性并保持强大的表达能力。实验结果表明,与现有的深度协变量时间点过程相比 - 金融时间序列预测中可解释人工智能 (XAI) 综述
人工智能(AI)模型的准确性已经达到了极高水平。而它们卓越的性能虽然带来了可观的好处,但其固有的复杂性常常降低人类的信任,从而减缓了它们在金融等高风险决策领域的应用。可解释的人工智能(XAI)领域试图弥合这一差距,旨在使人们更能理解 AI - 基于概念的可解释强化学习在人类标签受限或无标签条件下的应用
利用人类可理解的概念集成到神经网络中的概念瓶颈模型在强化学习中提供了可解释性的替代方案;为了克服此前工作中对人工注释的假设,在人工标注的数据集上学习概念和有效地训练强化学习算法的新型训练方案 LICORICE 是本文的主要贡献之一;最后,通 - FMDNN:一种模糊引导的多粒度深度神经网络用于组织病理图像分类
为了解决组织病理学图像分类中对多粒度特征提取的挑战,我们提出了模糊引导多粒度深度神经网络(FMDNN)。在多种公共数据集上的实验证明,我们的模型在病理学图像分类中显示出明显的准确性改进,并呈现可赞赏的可解释性。
- XAI 与 LLMs 的关系调查
本文调查了大型语言模型(LLM)研究中的关键挑战,着重强调解释性的重要性。我们提出了平衡方法,将可解释性与功能性改进同等重视,并呼吁研究界推动 LLM 和 XAI 领域的共同进步。
- 使用稀疏熵正则化使难提示可解释:通过 RL 对提示进行调整
通过优化稀疏的 Tsallis 熵正则化,我们改善了提示调整的挑战,提高了提示发现方法的效果,并使其更加自然和可解释。
- SurvReLU: 通过深度 ReLU 网络实现本质可解释的生存分析
通过深度修正线性单元网络(SurvReLU),构建了结合了树结构解释性与深度生存模型表征能力的模型,对生存分析进行了研究,证明了该模型在性能和互操作性方面的有效性。
- 基于图形块的直观多模态原型网络(PIMPNet)用于阿尔茨海默病分类
提出了第一个适用于 3D 图像和人口统计学的可解释多模态模型,用于从 3D sMRI 和患者年龄进行 AD 的二分类。
- 语义原型:增强透明度,无黑箱
本论文提出了一种利用语义描述定义原型并提供清晰解释的新的框架,通过在语义层面上对数据进行聚类,简化解释过程,有效地弥补了传统方法的不足,增加了透明度,提升了可信度。经过用户调查验证,我们的方法在促进人类理解和信息量方面优于现有广泛使用的原型 - CoD,基于诊断链的可解释医疗智能代理
通过引入诊断链 (CoD) 来提高基于大型语言模型 (LLM) 的医学诊断的可解释性,确保决策透明和诊断过程的可控性。使用 CoD,我们开发了能够诊断 9604 种疾病的 DiagnosisGPT,并且实验结果表明 DiagnosisGPT - 借助内在方法解释深度神经网络
通过研究深度神经网络的可解释性,本文提出了增强深度神经网络可解释性的新技术,包括集成外部内存、使用原型和基于约束的层以及探索神经元激活值相关的现象。此外,本文还分析了可解释性技术在视觉分析领域的应用,探索了这些系统传达解释给用户的成熟度和潜 - 随机森林模型解释的调查与分类
随机森林模型的解释性是机器学习领域一个日益受关注的研究课题。本文通过对现有方法的全面回顾,通过分类分析提供一种分类方式,以指导用户根据所需可解释性方面选择最合适的工具来解释随机森林模型。
- 线性回归模型是否是白盒且可解释的?
可解释人工智能(XAI)是一系列应用于机器学习模型以理解和解释模型的工具和算法,尤其适用于包括深度神经网络在内的复杂或高级模型。然而,本文认为传统认为线性回归模型易于解释和理解的观点并不准确,同时提出了线性回归模型也存在解释困难,并探讨了一 - 鲁棒反事实解释中的一般模型变化
随着算法决策对人类生活的影响越来越大,模型的可解释性已成为机器学习中的关键问题。对抗解释是可解释机器学习领域的重要方法,它不仅有助于用户理解机器学习模型为何做出特定决策,还可以帮助用户理解如何改变这些决策。本文提出了自然发生的模型改变的更一 - 企业信用评估的图维度关注网络
企业信用评估对于评估金融风险至关重要;图神经网络通过模拟实体之间的关系,可更深入理解这些金融网络;然而现有的基于图神经网络的方法主要强调实体级别的注意机制,往往忽视了不同特征维度的异质重要性,因此在充分建模信用风险水平方面存在不足;为解决这