- 利用生成模型对无监督概念为基础的可解释网络进行重新设计
通过将概念特征映射到预训练生成模型的潜在空间中,我们提出了一种新方法,以生成高质量的可视化结果并提供直观、交互式的解释方式。我们验证了该方法在可解释预测网络准确性、重构保真度以及概念学习的忠实性和一致性方面的有效性。
- KDD可扩展的采样式规则列表学习
从大数据集中学习近乎最优的规则列表的一种新颖和可扩展的方法,使用采样以有效获得近似最优规则列表,并在质量上做出保证,速度比精确方法快两个数量级,并且与启发式方法相比更高质量的规则列表。
- CVPRFPN-IAIA-BL: 数字乳房 X 线照片乳房肿块边界分类的多尺度可解释性深度学习模型
数字乳房 X 线摄影是乳腺癌检测的关键,而深度学习为更快、更准确的乳房 X 线分析提供了有前途的工具。然而,在放射学和其他高风险环境中,不可解释的(“黑盒子”)深度学习模型不适用,并且这些领域对于希望创建可解释模型的呼声很高。最近在可解释计 - 预测的政策树:机器学习中可解释和自适应的模型选择
通过开发一种树基的方法学,Optimal Predictive-Policy Trees (OP2T),我们提出了一种规定性方法来解决机器学习模型选择中的关键问题,从而产生可解释的适应性策略以选择预测模型或集成,并具有参数化选项拒绝进行预测 - 基于 LLM 的层次化概念分解方法用于可解释的细粒度图像分类
我们介绍了一种名为 Hi-CoDe(层次概念分解)的新框架,通过结构化概念分析来增强模型的可解释性,并且不损害准确性,从而提供对决策过程的清晰洞察和各种概念的重要性的突出,为可解释性设定了新的基准。
- 评估解释的统一框架
评估可解释性模型的统一框架是该论文的重点,它介绍了各个研究群体对解释性评估的重叠和语义错位,并提出了解释的可行性和可理解性的评估标准,以及基于可解释神经网络的学习行为预测的案例。
- 利用基于注意力的双向长短期记忆网络和可解释模型来建模引用值
通过使用注意力机制的双向长短期记忆 (BiLSTM) 网络和环境信息,我们可以检测需要引用的句子,我们还构建了一个比以前数据集大数个数量级的新数据集 (PMOA-CITE),证明我们的架构在标准 ACL-ARC 数据集上达到了最先进的性能 - MERIT: 可靠且可解释的肝纤维化分级的多视图证据学习
该研究提出了一种基于证据学习的多视角方法(MERIT),具备对预测结果不确定性的量化和可解释性,对于肝纤维化分期决策过程中每个视角的重要性提供了阐明。
- 可解释需求预测的分层神经附加模型
通过引入层次神经加法模型(HNAM),本研究解决了机器学习预测方法准确性高但解释性差的问题。HNAM 是一种针对时间序列的加法模型,允许根据用户指定的交互层次来进行协变量交互。通过对真实世界的零售数据进行广泛评估并与其他最先进的机器学习和统 - 可解释的公平框架:物质使用障碍治疗结束预测
发展和部署可解释模型对提高其可信度和采用率至关重要,本研究旨在开发和实施一个同时解决公平性和可解释性问题的框架,通过优化性能建立模型,采用处理中的方法减轻模型对种族和性别等敏感属性的偏见,进而通过探索特征重要性的变化来探索和可视化模型变化的 - CVPR语言模型引导的可解释视频行为推理
通过语言模型引导的可解释的动作识别框架 (LaIAR),提高了视频模型的性能和可解释性。
- 基于树估计器的依区域法类别对西班牙法律裁决的自动解释
结合自然语言处理和机器学习的可解释法律文本分类系统,对决策的特征和决策路径进行分析并以自然语言形式呈现,实现模型决策的可理解性。该系统在法律类别上的实验结果表明,其分类性能具有竞争力,准确度值超过 90%,并且自动解释能够被非专业用户轻松理 - 一种基于增量最大可满足性问题的平衡规则学习模型
提出了一种基于 MaxSAT 的增量学习可解释和平衡规则的模型 IMLIB,并通过与 IMLI 在多个数据库上的比较表明,IMLIB 在准确性上与 IMLI 相当,生成尺寸更小且更平衡的规则。
- 可解释的机器学习在天气和气候预测中的应用:一项调查
复杂的机器学习模型在天气和气候预测中取得了高预测准确性,但不透明性限制了用户的信任和模型的进一步改进。因此,提高天气和气候模型的可信度和效用至关重要,我们调查了当前应用于气象预测的可解释机器学习方法,并将其分为后处理可解释性技术和从头开始设 - 解释性机器人行走的蒸馏强化学习策略:梯度提升机和符号回归
通过采用梯度提升机、可解释性提升机和符号回归的方法,将神经强化学习策略转化为透明的 “玻璃盒” 模型,用于提高控制策略的可解释性以及数据集聚合算法在行为克隆中的应用。
- 特征 CAM:解释性图像分类中的人工智能
我们的研究比较了应用于图像分类的激活方法(ABM)中最先进的方法,并通过引入新技术 Feature CAM,得到了在可解释性方面比现有技术提高 3-4 倍的结果。
- 正交梯度提升用于简化的加法规则集合
梯度提升预测规则是学习可能解释性又准确的概率模型的有效方法,本文通过引入新的目标函数来优化规则条件的选择,从而在理解性与准确性之间取得了显著的平衡。
- AAAI使用 LLMs 和可解释模型的数据科学
大规模语言模型与可解释模型(Interpretable Models)能够相互配合,LLMs 能够描述、解释和调试广义可加模型(Generalized Additive Models),结合 GAMs 描述的统计模式,使得数据集概述、问题回 - AAAI高斯过程神经附加模型
神经外包模型(NAMs)的发展标志着可解释的深度学习在表格数据集上的重要进展,我们提出了一种新的 NAMs 子类 —— 通过随机傅立叶特征的高斯过程的单层神经网络结构,称为高斯处理神经外加模型(GP-NAM),它具有凸优化函数和可训练参数数 - 利用深度学习发现科学图像数据的可解释模型
通过使用可解释的模型,我们研究如何从复杂图像数据中得出科学洞见,并通过实现解缠表示学习、稀疏深度神经网络训练和符号回归等方法,对复杂图像数据形成可解释的模型进行评估,以及探索这些可解释模型在揭示潜在生物现象方面的用途。