多样化的规则集
本文提出了一种方法来识别数据集的最大不同但准确的模型,实验证明,当数据支持多个准确分类器时,我们往往会恢复更简单,更易解释的分类器而不是更复杂的模型。
Jun, 2018
本文介绍了一种名为 IMLI 的基于最大可满足性的可解释学习框架,通过结合小批量学习和迭代规则学习的方法,实现了分类规则的合成。实验结果表明,IMLI 在预测准确性、可解释性和可伸缩性之间取得了最好的平衡,并用于学习流行的可解释分类器,如决策列表和决策集。
May, 2022
本文介绍了一种基于子模优化的学习规则集的方法,将子问题转化为特征子集选择任务并利用子模函数差值的思想使得问题更易解决,实验结果表明这种方法简单、可扩展且具有较好效果。
Jun, 2022
我们提出了一种新的分类器,命名为基于规则的表示学习器(RRL),它能够自动学习用于数据表示和分类的可解释的非模糊规则,并通过连续空间和梯度移植来优化离散模型,同时设计了逻辑激活函数以提高可扩展性和连续特征离散化。与竞争的可解释方法相比,RRL 在小型和大型数据集上有更好的性能,并且可以根据不同场景的需求方便地调整分类准确性和模型复杂性的权衡。
Oct, 2023
本文提出了一种新的范式,使用一个可解释的二层神经网络学习一组独立的逻辑规则作为分类的模型,并提出一种基于稀疏性的规则得出算法,相比其他学习算法和黑匣子模型,该方法可以在分类准确性和简单性之间取得更好的平衡。
Mar, 2021
从大数据集中学习近乎最优的规则列表的一种新颖和可扩展的方法,使用采样以有效获得近似最优规则列表,并在质量上做出保证,速度比精确方法快两个数量级,并且与启发式方法相比更高质量的规则列表。
Jun, 2024
本文介绍了一种基于概率规则列表和最小描述长度原则的模型选择方法,该方法可以在减小模型复杂度与保持良好拟合度之间进行折衷。同时,介绍了 Classy 算法,该算法针对多类别分类问题,选择小的概率规则列表,实现了良好的性能和可解释性。
May, 2019
通过利用分布鲁棒优化,我们提出了一个新的公式来学习一组规则集的集合,以在保持计算成本低的同时确保良好的泛化性能,并通过构建一个稀疏的规则集合来解决规则集的稀疏性和预测准确性之间的固有权衡。
Nov, 2023
本文提出了一种新的框架来学习规则集合模型,该模型既准确又可解释,该模型的可解释性通过评估模型所需表达预测所需的规则数量来评估,并提出了一种促进局部可解释性的正则化器,通过局部搜索的坐标下降算法来学习规则集合。实验结果表明,与现有方法(包括 RuleFit)相比,我们的方法学习规则集合时所需规则数量更少,同时仍然保持相当的准确性。
Jun, 2023
本文针对数字代理支持关键决策的应用难以获得信任这一难题,提出了基于规则学习的系统并设计透明易懂的模型,其中规则条件和问题解决方案的组成是分开演化的,允许用户特别定制模型以适应可解释性的要求。
Feb, 2022