我们研究了一个变分自编码器模型(VAE)的变体,其中高斯混合作为先验分布,通过深生成模型实现无监督聚类,通过最小信息约束启发式,缓解了过度正则化问题,并在合成数据、MNIST 和 SVHN 上证明了模型的性能。
Nov, 2016
这篇论文提出了一种基于深度自编码器混合聚类(DAMIC)算法,该算法通过聚类网络将数据转化到另一个空间,并且提出了一种集合自编码器来表示每一个聚类,同时聚类算法共同学习非线性数据表述和集合自编码器,通过最小化混合自编码器网络的重构损失,找到最优的聚类,实验结果显示该方法在图像和文本上均优于现有技术。
Dec, 2018
通过深度自编码器实现非线性降维和聚类,优化作为聚类过程的自编码器,避免之前聚类算法中离散目标的缺陷,无需先验知识即可进行聚类,实验证明该算法优于状态的聚类方案并具有普适性。
Mar, 2018
本文提出了一种基于深度自编码器的无监督子空间聚类新颖深度神经网络架构,其中引入了一种自相似层,以模拟传统子空间聚类方法中的 “自相似” 属性。该方法能够在非线性方式下对具有复杂结构的数据点进行聚类,并且在实验中表现出优于现有方法的性能。
Sep, 2017
本研究提出优化自动编码器的磨损和判别力对数的预训练阶段,以获得更高的聚类准确性和更快的收敛速度。
May, 2018
本研究提出了在深度非监督聚类中使用 autoencoded embedding 和 UMAP 的方法,该方法可以优于目前常见的深度聚类算法,并在多个数据集上取得了有竞争力的结果,为深度聚类提供了有前途的研究方向。
Aug, 2019
提出了一种支持深度无监督学习的网络,使用编码器到解码器的侧向快捷连接来支持层次结构,并通过去噪自编码器和去噪源分离框架进行学习,以学习不变特征。
Nov, 2014
本文提出了一种利用卷积自编码器将图像转化为线性子空间并进行深度子空间聚类的新方法,通过在编码器和解码器之间插入多个线性层和一个新型的损失函数来提高模型性能。实验结果表明,该方法在多个真实数据集上均显著超越同类方法。
Jan, 2020
介绍了一种基于非线性流形学习的方法,利用潜在映射高斯过程或深度自编码器来检测无监督设置下的异常值,具有更好的性能。
Jun, 2023
该论文提出了一种利用深度自编码器进行无监督音频源分离的新框架,在适当配置的自编码器的帮助下,通过对编码器向量进行聚类,自动分离混合输入中未知源信号的特征。通过调查权重向量并对激活系数在代码层进行聚类,观察了频域中音频信号的原始组件。通过使用属于不同聚类的代码向量,分离并重构原始源声音。虽然回复的音频不是完美的,但在许多实际应用中可能会产生有希望的结果。
Dec, 2014