使用无监督二叉树的可解释聚类
使用贪婪最大化核 KMeans 目标,无需定义质心的 Kauri 方法,是一种用于集群的新型端到端训练的无监督二叉树,它在使用线性核时表现相同,对于其他核,Kauri 通常优于核 KMeans 和 CART 决策树的串联。
Feb, 2024
本研究旨在解决决策树集成在多领域应用时造成的可解释性下降,提出了 Born-Again 树集成的方法,通过动态规划算法生成出在实际数据集上表现优异的 Born-Again 树模型,以在不牺牲分类器性能的前提下获得更高的可解释性。
Mar, 2020
本文提出了一种能够全局解释黑匣子机器学习模型的简单而有效的方法,即使用紧凑的二叉树 “解释树” 显式地表示隐含在黑匣子机器学习模型中的最重要的决策规则,而这个树是从贡献矩阵中学习得来的,通过递归地最大化区分空间之间分裂变量的平均贡献差来划分输入变量空间。我们通过多任务的机器学习模型诊断实验证明了我们方法的有效性,同时也便于人类理解机器学习模型。
Feb, 2018
本文提出了一种交互式贝叶斯算法,该算法将用户交互纳入层次聚类中,同时利用数据的几何形状通过对层次结构上的有约束的后验分布进行采样,提出了几种智能查询方式。该算法以及查询方案在真实数据上表现出了良好的结果。
Feb, 2016
提出了一种名为 Interpretable Sequence Clustering Tree(ISCT)的方法,该方法将顺序模式与简明易懂的树状结构相结合,以解决分类序列聚类中的解释性问题。ISCT 利用 k-1 模式生成 k 个叶节点,对应于 k 个聚类,从而直观解释每个聚类的形成方式。实验证明,该方法在提供可解释性的树状结构的同时,能够快速准确地进行聚类分配。
Sep, 2023
本研究提出了一种通过模型简化方法(树模型的选择问题),使得复杂的树模型具有可解释性的算法,该算法可以保证预测性能的同时,将复杂的树模型逼近成最简单的表现形式
Jun, 2016