深度聚类的稳定簇划分
提出了一种新的聚类前置任务方法 CoKe,不同于传统的聚类方法,CoKe 只对每个簇的最小大小做出约束,从而实现了更高效的聚类,并且有理论保证,通过单视图优化获得了有竞争力的性能。
May, 2021
本文提出了一种语义对比学习的方法(SCL),将距离的聚类结构引入到无标注数据的特征空间中,并通过优化实例视觉相似性和聚类决策边界的一致性来推理出语义上的实体类别,以在发现未知类别决策边界方面具有显着优势。实验证明,SCL 在六个物体识别基准测试中优于最先进的对比学习和深度聚类方法,尤其是在更具挑战性的精细和较大的数据集上。
Mar, 2021
本研究基于深度聚类方法,提出了一种结合公平性目标的自适应学习算法,以解决群体层面的公平性问题,其实现步骤包括将整数线性规划嵌入到判别式深度聚类主干中,多状态受保护状态变量(PSVs)的分类等。实验数据表明,本算法优于现有公平聚类算法,并且适用于具有灵活公平性约束的任务。
May, 2021
本文提出一种利用深度神经网络来建模聚类任务中数据间关系从而提高聚类效果的算法,名称为 Deep Discriminative Clustering (DDC)。DDC 采用全局和局部约束对关系进行调整,通过迭代式训练得到高水平的表征,并将其作为聚类中心进行直接聚类。实验证明,DDC 在图像、文本和音频数据集上表现出比当前方法更佳的聚类效果。
May, 2019
本研究设计了一个用于单阶段图像检索的紧凑鉴别性表示学习框架,只需要图像级别的标签,通过动态调整损失尺度和边界、选择重要的局部描述符并注入细粒度语义关系,实现了全局尺度上的类间区分度优化,取得了在 Revisited Oxford 和 Revisited Paris 等基准测试中的最新单阶段图像检索性能。
Aug, 2023
该论文介绍了一种新的深度聚类方法 - Deep Robust Clustering (DRC),它从两方面同时考虑了语义聚类和特征表现,从而增加了跨类别差异并同时减少了类内差异,且通过数据增强和对比损失的最小化在多项基准测试中显著提高了准确性。
Aug, 2020
本研究提出一种基于深度学习的表示学习方法,采用实例区分和特征装饰来提高聚类的效果,在 CIFAR-10 和 ImageNet-10 数据集中进行了实验,分别获得了 81.5% 和 95.4% 的准确率。
May, 2021