关于可解释性的代价在某些聚类问题中的研究
介绍了一种可解释性聚类方法,算法通过应用决策树将数据划分为轴平行超平面聚类,使得聚类边界简单,同时保证聚类代价函数的可解释性约束,聚类的代价至多是比不考虑可解释性约束的情况最小代价增加 $k^{1-2/d}$ 倍,与其他方法的代价上界取最小值可得到 $k^{1-2/d} polylog (k)$ 倍,此为 $k,d ≥ 2$ 下的最优代价上界。
Jun, 2021
提出了一个算法,用于在 $k$-medians 目标和 $k$-means 目标下输出可解释的聚类,与最佳聚类最多相差 $O (\log^2 k)$ 和 $O (k\log^2 k)$ 的因子,算法时间为 $O (dk\log^2 k)$ 。
Jun, 2021
本文提出了一种使用决策树对数据集进行聚类的算法,并探讨了该方法对 k-means 和 k-medians 目标函数的适用性。作者证明了常见的自顶向下决策树算法可能会导致成本任意大的聚类结果,但设计了一种有效的方法使用具有 k 个叶子的树生成可解释的聚类,并对于两个中心点的情况,仅需要一个阈值切割即可实现常数近似。
Feb, 2020
本文研究可解释 K-means 和 K-median 聚类问题,证明了在欧几里得平面上,解释深度降低会导致聚类成本的无界损失,并将其扩展到 K-center 目标。
May, 2023
我们研究了基于解释和准确性之间的平衡的 $k$-means 聚类算法,设计了一种新的解释性 $k$-means 聚类算法 ExKMC,用于有效地将数据集划分为 $k'$ 个叶子节点,并以 $k$ 个簇之一的形式对叶子节点进行标记。经实验验证,ExKMC 的聚类效果优于标准的决策树方法和其他解释性聚类算法。
Jun, 2020
我们提出了一种基于解释驱动的集群选择的解释可调的约束聚类方法,该方法能够生成高质量的且可解释的聚类,其中聚类结果考虑了特征的覆盖率和区分度,并能够整合领域专家知识和用户约束。
Mar, 2024
本研究提出了一种新的可解释人工智能(XAI)方法,在聚类方法中将对比解释与差分隐私相结合。通过在常见的聚类问题中(包括 k - 中值和 k - 均值),我们给出了高效的差分隐私对比解释,能够获得与非差分隐私聚类解释基本一致的解释。在每个对比场景中,我们将一个特定数据点指定为固定的质心位置,以衡量这种约束对基于差分隐私的聚类结果的影响。在各种数据集上进行的广泛实验表明我们方法在不明显损害数据隐私或聚类效果的情况下提供有意义的解释,突出了我们对隐私感知机器学习的贡献,证明了在聚类任务解释中在隐私和效用之间实现平衡的可行性。
Jun, 2024