Jun, 2023
可解释的深度聚类
Interpretable Deep Clustering
Jonathan Svirsky, Ofir Lindenbaum
TL;DR本文提出了一种新的深度学习框架,可以在 instance 和 cluster 级别预测可解释的聚类分配,并在基因组序列、医疗记录或图像等数据上验证了该方法的可靠性和可解释性。
Abstract
clustering is a fundamental learning task widely used as a first step in data
analysis. For example, biologists often use cluster assignments to analyze
genome sequences, →
发现论文,激发创造
深层描述性聚类
本文提出了一种新型的复杂数据聚类算法,利用符号数据进行言语解释,通过最大化模块之间的一致性产生更好的聚类效果和高质量的聚类级别解释,实验结果表明,该模型在聚类性能方面优于竞争对手,并提供高质量的聚类级别解释。
May, 2021
解释性多视角聚类
多视角聚类是一个重要的研究领域,本研究提出了一个可解释的多视角聚类框架,通过提取每个视角的嵌入特征和生成伪标签来引导决策树的初始构建,并在优化特征表示以及改进解释性决策树的同时,为多视角数据提供一个透明的聚类过程,实验结果表明,该方法在聚类性能上与最先进的多视角聚类方法可媲美。
May, 2024
在聚类价值和可解释性之间平衡权衡
本文提出了一种可解释性的聚类算法,该算法通过优化可解释性,生成具有解释性的聚类,并使用频繁模式挖掘生成简单的说明,该算法适用于具有特征价值的大规模数据集。
Dec, 2019
深度聚类用于视觉特征无监督学习
本文介绍了 DeepCluster,一种聚类方法,它能够联合学习神经网络的参数和聚类分配,并应用于卷积神经网络在大型数据集上的无监督训练,取得了显著的性能提升。
Jul, 2018
深度表示学习的无监督图像分类
本研究提出了一种无监督图像分类框架,旨在通过不使用嵌入聚类来简化和优化深度聚类算法,并在 ImageNet 数据集上进行了实验。同时验证了其在多标签图像分类,目标检测,语义分割等任务的泛化性,以及其在迁移学习中的有效性。
Jun, 2020
走向可解释聚类:基于约束声明的方法
我们提出了一种基于解释驱动的集群选择的解释可调的约束聚类方法,该方法能够生成高质量的且可解释的聚类,其中聚类结果考虑了特征的覆盖率和区分度,并能够整合领域专家知识和用户约束。
Mar, 2024