具体K-means深度聚类
本文介绍了一种基于增强版k-means聚类算法的深度卷积神经网络,该算法通过无监督学习技术利用分层特征来减少相关参数的数量,从而提高了测试分类精度。作者进一步展示了学习深度卷积神经网络各层之间的连接能够提高网络在少量标记数据上的训练能力,最终在STL-10数据集上获得74.1%的测试准确率以及在MNIST数据集上仅有0.5%的测试误差。
Nov, 2015
本文提出了一种同时学习特征表示和聚类分配的深度神经网络方法——深度嵌入聚类(DEC),该方法可将数据空间映射到低维特征空间,并在此优化聚类目标函数,实验结果表明,DEC在图像和文本语料库方面的表现显著超过现有的最先进方法。
Nov, 2015
本文提出了一种利用深度神经网络实现联合降维和K-means聚类的方法,通过学习非线性函数的深度神经网络,以期获得更好的聚类和降维效果。
Oct, 2016
本文研究了联合聚类和学习表示问题,提出了一种在 $k$-Means 聚类中基于目标函数连续重新参数化的方法,该方法在多个数据集上经过测试证明其在聚类对象的同时学习表示方面的有效性。
Jun, 2018
本研究表明,最近的一些判别模型等价于K-means,并且证明对于常用的逻辑回归后验概率,通过交替方向方法最大化L2正则化的互信息等价于软化和正则化的K-means损失。这一理论分析不仅将最近的一些判别模型直接联系到了K-means,并且提出了一种新的软化和正则化的深度K-means算法,在几个图像聚类基准测试中表现出色。
Oct, 2018
通过将 $k$-means聚类算法重写为最优传输任务,并加入熵正则化,我们提出了一种全新的方法,其中嵌入是由深度神经网络执行的,表明与现有的基于软 $k$-means的最新方法相比,我们的最优传输方法提供更好的无监督准确度,不需要预训练阶段。
Oct, 2019
在大规模基准数据集上,探索了基于特征的深度聚类方法的性能表现,并分析了数据相关因素对其影响,包括类别不平衡、类别粒度、易于识别的类别和捕获多类别的能力。通过基于ImageNet21K的多个新基准评估实验,发现基于特征的$k$-means在平衡数据集上评估不公平,而深度聚类方法在大多数大规模基准数据集上表现优于$k$-means。有趣的是,$k$-means在易于分类的基准上表现不佳,但在最高数据规模(如ImageNet21K)上的性能差距减小。最后,发现非主要聚类预测能够捕获有意义的类别(即更粗略的类别)。
Jun, 2024
基于神经网络的深度聚类在分析高维复杂现实世界数据方面取得了巨大成功,然而现有工作往往忽视了深度聚类中先验知识的融合和利用,本文通过对各种先验知识进行分类,提供了全面的深度聚类方法综述,并提供了五个广泛使用的数据集的基准测试和方法性能分析,希望能够为深度聚类研究提供一些新的见解和启发。
Jun, 2024
本研究针对深度聚类中用户需提前指定聚类数量的局限性,提出了一种名为UNSEEN的通用框架,能够从一个给定的上限中估计聚类数量。通过与多个流行的深度聚类算法结合,实验证明了该方法的有效性,具有良好的适应性和广泛的应用潜力。
Oct, 2024