本论文提出了一种透明可解释的 AI 系统,使用基于简单逻辑表达式的规则集进行演化,可以发现具有意义的规则集,揭示数据中的偏差,提供对相关领域的深入了解,并为建立如实际应用的可信 AI 系统提供有希望的基础。
Apr, 2022
我们提出了一种新的分类器,命名为基于规则的表示学习器(RRL),它能够自动学习用于数据表示和分类的可解释的非模糊规则,并通过连续空间和梯度移植来优化离散模型,同时设计了逻辑激活函数以提高可扩展性和连续特征离散化。与竞争的可解释方法相比,RRL 在小型和大型数据集上有更好的性能,并且可以根据不同场景的需求方便地调整分类准确性和模型复杂性的权衡。
Oct, 2023
在可解释人工智能(Explainable AI)中,我们提出了一种模型无关的方法,用于从特定的数据子组中提取规则。该方法通过自动生成数字特征规则,增强了机器学习模型的区域可解释性,并在高维空间中降低了计算成本。在各种数据集和模型的实验中,我们的方法表现出了很好的效果。
Jun, 2024
我们提出了一种基于解释驱动的集群选择的解释可调的约束聚类方法,该方法能够生成高质量的且可解释的聚类,其中聚类结果考虑了特征的覆盖率和区分度,并能够整合领域专家知识和用户约束。
Mar, 2024
本文提出了一种新的框架来学习规则集合模型,该模型既准确又可解释,该模型的可解释性通过评估模型所需表达预测所需的规则数量来评估,并提出了一种促进局部可解释性的正则化器,通过局部搜索的坐标下降算法来学习规则集合。实验结果表明,与现有方法(包括 RuleFit)相比,我们的方法学习规则集合时所需规则数量更少,同时仍然保持相当的准确性。
Jun, 2023
本文针对数字代理支持关键决策的应用难以获得信任这一难题,提出了基于规则学习的系统并设计透明易懂的模型,其中规则条件和问题解决方案的组成是分开演化的,允许用户特别定制模型以适应可解释性的要求。
Feb, 2022
提出了一种结合深度学习和基于专家规则解释性的端到端方法,利用图模型和预定义噪声规则建立规则网络,达到处理噪声数据和提高可解释性的效果。在工业生产系统中的实验表明,该方法可以达到非常高的泛化稳定性,比纯规则方法具有更好的拟合能力和更好的可解释性。
Nov, 2022
该研究提出了一种新方法来推断不同的规则集,通过在 Max-Sum 多样化框架下优化决策规则之间的小重叠,以及在鉴别品质和规则集多样性之间最大化加权总和,来克服联想规则指数级搜索空间的困难。该算法通过随机采样高度鉴别且重叠小的规则,并证明其拥有更好的预测能力和解释性。
Jun, 2020
本文介绍了一种名为 IMLI 的基于最大可满足性的可解释学习框架,通过结合小批量学习和迭代规则学习的方法,实现了分类规则的合成。实验结果表明,IMLI 在预测准确性、可解释性和可伸缩性之间取得了最好的平衡,并用于学习流行的可解释分类器,如决策列表和决策集。
May, 2022
该研究提出 SELOR 框架,将自说明能力集成到给定的深度模型中,实现高预测性能和人类精度,并且不需要预定义逻辑规则集或人工注释,同时保持深度学习模型的性能,从而更接近于人类决策逻辑。
Oct, 2022