本文研究了联合聚类和学习表示问题,提出了一种在 $k$-Means 聚类中基于目标函数连续重新参数化的方法,该方法在多个数据集上经过测试证明其在聚类对象的同时学习表示方面的有效性。
Jun, 2018
本研究提出了一种使用深度学习进行无监督非参数聚类的方法,首先利用深度学习进行特征表示和降维,然后在最大边际框架下进行非参数聚类,最后在深信念网络中优化模型参数。实验结果表明我们的方法优于现有竞争方法。
Jan, 2015
本文介绍了 DeepCluster,一种聚类方法,它能够联合学习神经网络的参数和聚类分配,并应用于卷积神经网络在大型数据集上的无监督训练,取得了显著的性能提升。
Jul, 2018
通过将 $k$-means 聚类算法重写为最优传输任务,并加入熵正则化,我们提出了一种全新的方法,其中嵌入是由深度神经网络执行的,表明与现有的基于软 $k$-means 的最新方法相比,我们的最优传输方法提供更好的无监督准确度,不需要预训练阶段。
Oct, 2019
通过深度自编码器实现非线性降维和聚类,优化作为聚类过程的自编码器,避免之前聚类算法中离散目标的缺陷,无需先验知识即可进行聚类,实验证明该算法优于状态的聚类方案并具有普适性。
Mar, 2018
在大规模基准数据集上,探索了基于特征的深度聚类方法的性能表现,并分析了数据相关因素对其影响,包括类别不平衡、类别粒度、易于识别的类别和捕获多类别的能力。通过基于 ImageNet21K 的多个新基准评估实验,发现基于特征的 $k$-means 在平衡数据集上评估不公平,而深度聚类方法在大多数大规模基准数据集上表现优于 $k$-means。有趣的是,$k$-means 在易于分类的基准上表现不佳,但在最高数据规模(如 ImageNet21K)上的性能差距减小。最后,发现非主要聚类预测能够捕获有意义的类别(即更粗略的类别)。
Jun, 2024
本研究表明,最近的一些判别模型等价于 K-means,并且证明对于常用的逻辑回归后验概率,通过交替方向方法最大化 L2 正则化的互信息等价于软化和正则化的 K-means 损失。这一理论分析不仅将最近的一些判别模型直接联系到了 K-means,并且提出了一种新的软化和正则化的深度 K-means 算法,在几个图像聚类基准测试中表现出色。
Oct, 2018
这篇论文介绍了一种基于深度学习的约束聚类框架,可应用于连续数据和高层领域知识等不同类型的约束条件,相比基于传统算法的方法,效果更好。
Jan, 2019
本文提出了一种利用深度神经网络实现联合降维和 K-means 聚类的方法,通过学习非线性函数的深度神经网络,以期获得更好的聚类和降维效果。
Oct, 2016
本文介绍了一种有效的深度聚类方法,该方法使用了分裂 / 合并框架、动态体系结构自适应于不断变化的聚簇数量 K,并且不需要预先指定 K 值。论文证明了这种无需预先指定簇数的非参数方法在 ImageNet 等数据集上,超越了现有的基于深度学习和传统的非参数聚类方法,并展示了在数据集不平衡时,预先指定 K 值的方法的性能下降。
Mar, 2022