- 概率逻辑编程中的解释解释
基于可解释的概率逻辑编程和查询驱动的推理机制,本研究提出一种解释解释的方法,以使黑盒人工智能系统的解释更易理解。
- 自述恶霸:情感辅助的网络欺凌检测及解释
通过开发首个可解释模型 mExCB,基于混合编码语言的 BullyExplain 数据集,自动检测网络欺凌并辨识解释、目标群体以及情感分析,超越多个基准模型和现有模型的综合任务框架。
- 危重病患的快速且可解释的死亡风险评分
使用现代可解释的机器学习技术设计准确可解释的死亡风险评分模型,通过评估医疗中心的风险,研究领域的泛化性,并开发了一种新的算法 GroupFasterRisk,其风险评分模型在设计灵活性上比黑盒机器学习模型优于传统风险评分模型。
- 逻辑回归的成本敏感最佳子集选择:基于混合整数锥优化的视角
提出了从混合整数锥优化的角度,具有证明最优的特征选择程序的机器学习方法,可以考虑辅助成本以获取特征,同时创建了用于临床预后模型研究的合成数据生成器,以系统评估不同的启发式和最优基数约束特征选择程序。
- 通过联邦协同训练保护敏感数据
在隐私领域,通过联邦协同训练和共享标签实现保护敏感数据的查探,提高模型质量并保护隐私免受常见的成员推理攻击。
- 评估本地解释中的归咎问题及其解决方法
对于局部模型无关解释的评估方法,以鲁棒性、基于合成数据集和可解释模型的地面真实性评估、模型随机化和人为评估为分类,本研究提出了一种新的评估分类方法并指出除了基于可解释模型的地面真实性评估外,其他评估方法都存在 “责怪问题”。然而,即使是基于 - ICCV稀疏线性概念发现模型
通过对比性语言图像模型和单一稀疏线性层,我们提出了一个简单而直观的可解释框架,通过基于贝叶斯推理的数据驱动伯努利分布来实现框架中的稀疏性,相比相关方法,在准确性和每个样本概念稀疏性方面均表现出色,为新概念的个体研究提供便利。
- ICML走向真正的微分方程发现
该论文探讨了在没有专家输入的情况下独立发现方程的先决条件和工具,消除了方程形式假设的需求,并解决了在正确方程未知时评估已发现方程的充分性的挑战,以提供无需先前知识的方程可靠发现的洞察。
- LLMs 理解透明盒模型,发现意外,提出修复建议
通过采用分层推理方法,大型语言模型(LLMs)能够提供综合的模型级摘要,自动化数据科学中的常见任务,如检测与先前知识不符的异常情况,描述异常情况的潜在原因,并建议消除异常情况的修复方法。以医疗保健领域的多个例子为例,演示了 LLMs 的这些 - 可验证特征归因:后解释性与内在可解释性之间的桥梁
通过 VerT 方法,将黑盒模型转化为生成可信且可验证特征归因的模型,从而弥合了先前研究中的解释策略差距。
- 路径,解释,重复:模糊了事后可解释性与可解释模型之间的界限
本文提出了一种混合解释性模型和灵活模型来实现机器学习模型设计的方法,其中以一种新的方式使用一阶逻辑来实现解释性模型,同时通过不断的迭代优化过程从而达到较好的性能表现,并为混合符号连接网络提供了框架。
- ICML概率性概念瓶颈模型
本研究中,我们提出了一种基于概率概念瓶颈模型(Probabilistic Concept Bottleneck Models,ProbCBM)的解释性模型,它可以通过建模概念预测的不确定性来提高可靠性和解释性。我们的方法不仅可以提供高水平的 - 将领域知识融入深度神经网络中用于离散选择模型
本文提出了一种框架,通过约束条件将领域知识和先验信念与机器学习相结合,以支持可解释的基于数据驱动的离散选择模型的开发,并通过案例研究展示了该框架的潜力。
- 将黑盒模型精馏为可解释模型以实现有效的迁移学习
本文介绍了如何使用可解释性模型进行 AI 模型的迁移学习,通过将深度神经网络分解成可解释的浅层模型,然后使用人类可解释概念构建了一组混合模型以实现针对未知领域的高效微调,最终使用半监督学习中的伪标签技术来在目标领域学习概念分类器并进行微调。 - 将可解释性提升机应用于科学图像数据
针对计算机视觉中的不透明模型解释困难的问题,同时受到科学研究对可解释的模型的需求,该研究提出了将易于解释的 EBM 模型扩展至科学图像领域的方法,并通过 Gabor 小波变换对图像数据进行处理,改进了当前图像可解释性方法。
- 展开所有 ReLU 网络
本篇论文阐述了深度 ReLU 网络可以分解成输入空间划分的区域内的线性模型集合,并将该理论推广到图神经网络和张量卷积网络等复杂网络上。此外,该论文证明了神经网络可以被理解为可解释的模型,如多元决策树和逻辑理论,并展示了该模型如何导致便宜且准 - fairml:统计学家对公平机器学习建模的看法
本文介绍了 fairml R 包,该包旨在通过经典统计模型和惩罚回归结果(岭回归)实现公平和可解释的机器学习模型,并提供模型估计,选择和验证功能,以及诊断图。
- 可解释的神经符号概念推理
提出可解释的 Deep Concept Reasoner(DCR)模型,通过对概念嵌入的语义逻辑规则构建实现任务预测,从而在解释过程中提高了模型的可靠性和人类可信度。
- ICLR物理启发的机器学习模型可解释性
通过利用物理学中的能量景观方法,在机器学习模型中识别有意义的特征来解释模型决策,为使机器学习在医学、网络安全、自动驾驶等领域得到广泛采用提供了一种新途径。
- 检测新闻文章中的有害议程
本研究提出新的任务,释放了新闻文章数据集 NewsAgendas,用于检测有害议程;为了有效,这些有害议程检测器必须是可解释的,并且可解释模型的表现可以与黑盒模型相媲美。