本文提出了一种新的基于 SAT 的可解释聚类框架,支持聚类约束,同时提供强有力的解决方案质量理论保证,并给出了关于解释性和满足用户约束之间权衡的新见解。
Jan, 2023
本文提出了一种新型的复杂数据聚类算法,利用符号数据进行言语解释,通过最大化模块之间的一致性产生更好的聚类效果和高质量的聚类级别解释,实验结果表明,该模型在聚类性能方面优于竞争对手,并提供高质量的聚类级别解释。
May, 2021
提出基于神经网络和聚类模型的可解释 AI 框架,能够对数据的簇分配进行高效和可靠的解释,并且从分析数据和表示中提取新的见解。
Jun, 2019
本文详细介绍了约束聚类算法的背景和各种可用约束类型的评级分类,重点研究了基于实例级对偶约束的约束聚类及应用程序和历史背景,并对 307 种约束聚类方法进行了统计分析,根据其受欢迎程度和验证质量对其进行了分类和排名评分,最后提供了潜在的陷阱和未来的研究方向。
Feb, 2023
该研究提出了一种可解释的基于设计聚类的方法,该方法不仅可以找到集群,还可以找到举例来解释每个集群。作者提供了两个近似算法,可以提供证明性能保证以及应用范围。实验结果表明,这项工作在涉及难以理解的深度图像和文本嵌入的领域中非常有用。
Sep, 2022
本文提出了一种新的深度学习框架,可以在 instance 和 cluster 级别预测可解释的聚类分配,并在基因组序列、医疗记录或图像等数据上验证了该方法的可靠性和可解释性。
Jun, 2023
本文提出了一种基于决策树分类器的迭代方法来提取高密度的、可 解释的同一类别数据集群,并讨论了最大化识别群组质量的节点选择方法。
Jul, 2023
本文提出了一种名为 GoalEx 的目标驱动聚类框架,结合用户目标和自由形式的语言描述,采用语言模型和整数线性规划等方法实现对大型语料库的层次化聚类,并在辩论、客户投诉和模型错误等方面进行了应用。
May, 2023
探索可解释的核聚类算法,提出构建决策树来近似核 k-means 引发的分区的算法,并展示了适当选择特征如何在不损失可解释模型的近似保证的情况下保持可解释性。
Feb, 2024
这篇论文介绍了一种基于深度学习的约束聚类框架,可应用于连续数据和高层领域知识等不同类型的约束条件,相比基于传统算法的方法,效果更好。
Jan, 2019