通过深度自编码器实现非线性降维和聚类,优化作为聚类过程的自编码器,避免之前聚类算法中离散目标的缺陷,无需先验知识即可进行聚类,实验证明该算法优于状态的聚类方案并具有普适性。
Mar, 2018
本研究提出优化自动编码器的磨损和判别力对数的预训练阶段,以获得更高的聚类准确性和更快的收敛速度。
May, 2018
本文提出了一种联合因子分析和潜在聚类的框架,旨在学习矩阵和张量数据的聚类感知低维表示。该方法利用矩阵和张量分解模型来揭示潜在聚类结构,并通过潜在聚类结构作为先验信息来提高因子分解的性能。
May, 2016
本文提出了 TLDR,一种利用自监督学习框架的简单、易于训练并具有广泛适用性的降维方法,通过使用最近邻并引入冗余减少损失来学习变换表示。该方法专注于提高线性降维,在图像和文档检索任务中表现出稳定的优化效果。
Oct, 2021
我们提出了一种新的深度聚类网络,利用信息理论差异度量的鉴别能力,提出了一种新颖的损失函数,避免了聚类分区的退化结构。
Feb, 2019
本文介绍了一种新的成本函数来进行神经网络的半监督学习,该函数通过动态创建一个图形来捕获特征空间中的潜在结构,并使用标签传播来估计其高和低密度区域,最终利用马尔科夫链设计出一种成本函数,以形成每类一个单一的紧凑簇,同时在优化过程中避免扰乱现有的簇,该方法在三个基准测试中表现良好,将基于图形的正则化的优点与高效的归纳推理相结合,不需要修改网络架构,可以轻松应用于现有网络,实现对未标记数据的有效利用。
Jun, 2018
本文介绍了一种判别潜在混合模型(DLM)和一种估计算法 Fisher-EM 算法,可用于高维数据空间中的聚类,其结果优于现有的聚类方法,可以用于质谱数据聚类
Jan, 2011
本文提出了一种新的视角 —— 通过研究训练样本的深度表示子空间的维数,来理解在具有大量错误类标的数据集上训练准确的深度神经网络(DNNs)的普适性。根据这一发现,作者开发了一种新的维度驱动型学习策略,该策略在训练过程中监测子空间的维度并相应地调整损失函数,实验证明该方法可以高度容忍大量含有错误标签的数据,并能有效学习捕捉数据分布的低维局部子空间。
本研究表明,最近的一些判别模型等价于 K-means,并且证明对于常用的逻辑回归后验概率,通过交替方向方法最大化 L2 正则化的互信息等价于软化和正则化的 K-means 损失。这一理论分析不仅将最近的一些判别模型直接联系到了 K-means,并且提出了一种新的软化和正则化的深度 K-means 算法,在几个图像聚类基准测试中表现出色。
Oct, 2018
我们提出了一种新的方法,用于生成信息丰富的嵌入,该方法不仅消除了与不同类型先验知识相关的结构,还旨在揭示任何剩余的基本结构,通过采用两个目标的线性组合:首先是对先验信息相关结构进行折扣的对比主成分分析 (contrastive PCA),其次是通过峰度投影追求 (kurtosis projection pursuit) 确保得到的嵌入中存在有意义的数据分离,并将此任务形式化为流形优化问题,并在考虑三种不同类型的先验知识的各种数据集上进行了经验验证,最后,我们提供了一个自动化框架,用于对高维数据进行迭代的视觉探索。
Sep, 2023