本文提出一种利用深度神经网络来建模聚类任务中数据间关系从而提高聚类效果的算法,名称为 Deep Discriminative Clustering (DDC)。DDC 采用全局和局部约束对关系进行调整,通过迭代式训练得到高水平的表征,并将其作为聚类中心进行直接聚类。实验证明,DDC 在图像、文本和音频数据集上表现出比当前方法更佳的聚类效果。
May, 2019
本研究表明,最近的一些判别模型等价于 K-means,并且证明对于常用的逻辑回归后验概率,通过交替方向方法最大化 L2 正则化的互信息等价于软化和正则化的 K-means 损失。这一理论分析不仅将最近的一些判别模型直接联系到了 K-means,并且提出了一种新的软化和正则化的深度 K-means 算法,在几个图像聚类基准测试中表现出色。
Oct, 2018
本研究提出优化自动编码器的磨损和判别力对数的预训练阶段,以获得更高的聚类准确性和更快的收敛速度。
May, 2018
通过将 $k$-means 聚类算法重写为最优传输任务,并加入熵正则化,我们提出了一种全新的方法,其中嵌入是由深度神经网络执行的,表明与现有的基于软 $k$-means 的最新方法相比,我们的最优传输方法提供更好的无监督准确度,不需要预训练阶段。
Oct, 2019
本文提出了 Group Loss 损失函数,基于可微的标签传播方法实现了嵌入在奇异样本中的相似性、不同群组间的低密度特征,得到了用于聚类和图像检索的先进结果。
Dec, 2019
这篇文章提出了 DivClust,一个能够有效支持多元性控制的深度聚类算法,通过实验证明,DivClust 算法可用于改善基础深度聚类框架的性能。
Apr, 2023
本篇论文讨论了如何用神经网络学习更好的特征表达,提出了两种新的损失函数,在循环神经网络和卷积神经网络上验证了该方法能够显著提升 KMeans 聚类效果(用 AMI 衡量)并且胜过之前的方法。
May, 2017
本研究提出了一种使用深度学习进行无监督非参数聚类的方法,首先利用深度学习进行特征表示和降维,然后在最大边际框架下进行非参数聚类,最后在深信念网络中优化模型参数。实验结果表明我们的方法优于现有竞争方法。
Jan, 2015
通过引入 Gini impurity 所启发的新损失项和最小化两个高级特征分布之间的 Kullback-Leibler 散度,我们在两个图像分类数据集上进行了实验,并得出结论,将我们的新损失项集成到训练目标中始终优于仅使用交叉熵训练的模型,在不增加推理时间的情况下。
Feb, 2022
本文介绍了 DeepCluster,一种聚类方法,它能够联合学习神经网络的参数和聚类分配,并应用于卷积神经网络在大型数据集上的无监督训练,取得了显著的性能提升。
Jul, 2018