基于 CNN 的联合聚类和特征漂移补偿的大规模图像数据表示学习
在本论文中,我们提出了一种循环框架用于深度表示和图像聚类的联合无监督学习 (JULE)。通过在卷积神经网络 (CNN) 输出的表示层上堆叠聚类算法的连续操作的循环过程,在前向传递中进行图像聚类,在后向传递中进行表示学习。我们的主要想法是将两个过程集成到一个模型中,该模型具有统一加权的三元组损失函数,并进行端到端的优化,从而获得更强大的表示和更精确的图像聚类。在广泛的实验中,该方法在各种图像数据集的图像聚类中表现优于现有技术,并且学习到的表示在转移到其他任务时具有很好的通用性。
Apr, 2016
本文介绍了一种基于增强版 k-means 聚类算法的深度卷积神经网络,该算法通过无监督学习技术利用分层特征来减少相关参数的数量,从而提高了测试分类精度。作者进一步展示了学习深度卷积神经网络各层之间的连接能够提高网络在少量标记数据上的训练能力,最终在 STL-10 数据集上获得 74.1% 的测试准确率以及在 MNIST 数据集上仅有 0.5% 的测试误差。
Nov, 2015
本文旨在探讨深度卷积神经网络特征对无监督问题的可迁移性,并研究不同的预训练卷积神经网络特征提取器对于图像集群聚类和细粒度分类问题的影响,提出结合预训练的 ImageNet 中的深度特征提取和经典的聚类算法管道的分类方法,在图像聚类方面优于现有算法。作者同时在机器人应用中验证了该方法,成功实现了一种智能物体分类和存储的方案。
Jul, 2017
本文研究了卷积神经网络在无监督图像分割中的应用。我们提出了一种新的端到端网络方法,包括归一化和可微聚类函数,解决了前人固定分割边界的局限性。我们还针对用户输入扩展了该方法,同时保持高效性和准确性。经过在多个数据集上的测试,得出了该方法的有效性。
Jul, 2020
本篇论文讨论了如何用神经网络学习更好的特征表达,提出了两种新的损失函数,在循环神经网络和卷积神经网络上验证了该方法能够显著提升 KMeans 聚类效果(用 AMI 衡量)并且胜过之前的方法。
May, 2017
本研究提出了一种利用单个卷积神经网络(CNN)实现在纯在线模式下学习目标对象有效特征表示的高效且非常强大的跟踪算法,其利用一种新颖的截断结构损失函数、稳健的样本选择机制和一种懒但有效的更新算法,使 CNN 在视觉跟踪中对遮挡或错误检测等难以处理的问题具有鲁棒性,在实验中,与现有跟踪器相比,该算法可以提高性能。
Feb, 2015
我们通过重新审视聚类,一种机器学习和数据分析中最经典的方法之一,来研究机器视觉的一个基本方面:特征的测量。我们提出了特征提取与聚类(FEC)的概念性优雅但惊人的特征提取方法,它将特征提取视为从数据中选择代表并自动捕捉底层数据分布的过程。通过对各种视觉识别模型和任务进行广泛实验,我们验证了 FEC 的有效性、普适性和可解释性。我们希望这项工作将引发对当前事实上的网格式范式的重新思考。
Mar, 2024
本文提出了一种基于卷积神经网络、自组织映射聚类和赫布学习的卷积自组织神经网络(CSNNs)的建模方法,可以在无需反向传播的情况下完成学习,利用所提出的建模方法可以用于图像分类领域并取得与 Backpropagation 方法相当的性能。
Jan, 2020
本研究提出了一种简单而有效的方法来诊断 CNN 的特征表示,以发现由数据库偏差引起的表示缺陷和失败模式,并使用隐含属性关系和基础真相关系进行比较来挖掘潜在关联性。实验表明该方法的有效性。
Oct, 2017
本文提出了一种通过最大化标签和输入数据索引之间的信息来解决标签聚类与表示学习相结合的问题的新方法。该方法可以有效地对数以百万计的输入图像和数以千计的标签进行自标注,以训练高度竞争的图像表示,具有优于现有模型的性能。
Nov, 2019