可解释分类规则的高效学习
本文提出了 IMLI: 一种基于 MaxSAT 的增量学习方法,通过基于分区的训练方法,实现可扩展的运行时性能,从而在不损失准确性和可解释性的情况下,能够利用 MaxSAT 求解器并处理来自 UCI 存储库的基准测试数据。
Jan, 2020
该论文介绍了一个名为 MLIC 的 MaxSAT 框架,用于搜索适用于命题逻辑的可解释分类规则,并演示了它在解决包含数万个示例和数千个特征的大型分类问题方面的有效性和可调节的准确性与可解释性之间的平衡。
Dec, 2018
提出了一种基于 MaxSAT 的增量学习可解释和平衡规则的模型 IMLIB,并通过与 IMLI 在多个数据库上的比较表明,IMLIB 在准确性上与 IMLI 相当,生成尺寸更小且更平衡的规则。
Mar, 2024
本文介绍了一种基于概率规则列表和最小描述长度原则的模型选择方法,该方法可以在减小模型复杂度与保持良好拟合度之间进行折衷。同时,介绍了 Classy 算法,该算法针对多类别分类问题,选择小的概率规则列表,实现了良好的性能和可解释性。
May, 2019
该研究提出了一种新方法来推断不同的规则集,通过在 Max-Sum 多样化框架下优化决策规则之间的小重叠,以及在鉴别品质和规则集多样性之间最大化加权总和,来克服联想规则指数级搜索空间的困难。该算法通过随机采样高度鉴别且重叠小的规则,并证明其拥有更好的预测能力和解释性。
Jun, 2020
本文提出了一种方法来识别数据集的最大不同但准确的模型,实验证明,当数据支持多个准确分类器时,我们往往会恢复更简单,更易解释的分类器而不是更复杂的模型。
Jun, 2018
我们提出了一种新的分类器,命名为基于规则的表示学习器(RRL),它能够自动学习用于数据表示和分类的可解释的非模糊规则,并通过连续空间和梯度移植来优化离散模型,同时设计了逻辑激活函数以提高可扩展性和连续特征离散化。与竞争的可解释方法相比,RRL 在小型和大型数据集上有更好的性能,并且可以根据不同场景的需求方便地调整分类准确性和模型复杂性的权衡。
Oct, 2023
本文提出增强学习可用于学习不同用户可解释的模型,由此建立他们对机器学习模型的信任。通过与医生交互,基于神经网络模型,设计了一个基于强化学习的临床决策支持系统,结果表明,机器学习专家无法准确预测哪个系统输出将最大化临床医生对底层神经网络模型的信心,这些结果对将来机器学习可解释性研究以及机器学习在医学中的应用都具有广泛的意义。
Nov, 2018
简述了解释性机器学习领域的发展历程,综述了最新的解释方法,讨论了挑战,提出了回归建模、基于规则的机器学习、敏感性分析、因果推断和社会科学等领域的启示。
Oct, 2020
本文旨在提供可解释机器学习的基本原则,解决常见误解,并识别了十个技术挑战领域,包括稀疏逻辑模型、神经网络中的监督和非监督可分离性、增强学习的解释性等。此次调查适用于对可解释机器学习感兴趣的统计学家和计算机科学家。
Mar, 2021