Dec, 2018
通过最优树实现可解释的聚类
Interpretable Clustering via Optimal Trees
Dimitris Bertsimas, Agni Orfanoudaki, Holly Wiberg
TL;DR本文介绍了一种新的无监督学习算法,利用混合整数优化技术生成可解释的基于树的聚类模型,以提高群集算法的可解释性,并在医疗应用中具有重要意义。
Abstract
State-of-the-art clustering algorithms use heuristics to partition the
feature space and provide little insight into the rationale for cluster
membership, limiting their interpretability. In healthcare applications
clustering algorithmsinterpretable modelsunsupervised learningmixed integer optimizationhealthcare applications
发现论文,激发创造
多面体机器可解释聚类
本文提出了一种新颖的解释性聚类方法,通过在发现的聚类周围构建多面体来解释它们,同时将多面体的超平面约束为轴平行或稀疏整数系数,将构造聚类簇的问题形式化为混合整数非线性规划(MINLP).
Dec, 2021
使用无监督二叉树的可解释聚类
本研究提出了一种新的可解释聚类方法,使用无监督的二叉树,在三个阶段对数据进行处理,包括递归二元拆分,修剪和加入相似簇,同时对模拟和真实数据进行了一致性测试。
Mar, 2011
学习最优公平分类树:可解释性、公平性和准确性之间的权衡
本研究设计了一个 MIO(mixed integer optimization)框架,用于学习最优的分类树算法,以及与任意公平性约束进行扩展;提出了一个新的模型可解释性度量标准,称为决策复杂度;在流行数据集上,我们对公平性、可解释性及预测准确性之间的权衡进行了综合分析,证明了我们的方法在几乎完全平等的情况下仍能保持精度.
Jan, 2022
在聚类价值和可解释性之间平衡权衡
本文提出了一种可解释性的聚类算法,该算法通过优化可解释性,生成具有解释性的聚类,并使用频繁模式挖掘生成简单的说明,该算法适用于具有特征价值的大规模数据集。
Dec, 2019
通用和可扩展的最优稀疏决策树
通过提出一种决策树优化框架,解决了当前领域中两个开放性问题:不平衡数据处理和连续变量完全优化。此外,我们还介绍了一种可扩展的算法,可以在存在连续变量的情况下产生可证明的最优结果,并相对于现有技术将决策树构建速度提高了数个数量级。
Jun, 2020
解释性多视角聚类
多视角聚类是一个重要的研究领域,本研究提出了一个可解释的多视角聚类框架,通过提取每个视角的嵌入特征和生成伪标签来引导决策树的初始构建,并在优化特征表示以及改进解释性决策树的同时,为多视角数据提供一个透明的聚类过程,实验结果表明,该方法在聚类性能上与最先进的多视角聚类方法可媲美。
May, 2024