NECA: 针对分类数据的嵌入式深度表示学习
本文提出了一种同时学习特征表示和聚类分配的深度神经网络方法 —— 深度嵌入聚类(DEC),该方法可将数据空间映射到低维特征空间,并在此优化聚类目标函数,实验结果表明,DEC 在图像和文本语料库方面的表现显著超过现有的最先进方法。
Nov, 2015
本文介绍了一种面向 (T) ACSA 任务的分类名称嵌入网络 (CNE-Net),通过共享编码器和解码器等方式,使得多任务学习在增量学习上变得可行,同时提出了一种 (T) ACSA 增量学习数据集,与其他基线相比,实现了最佳性能表现。
Oct, 2020
本文介绍了如何将分类变量映射为欧氏空间中的实体嵌入,通过在标准监督训练过程中让神经网络进行学习。实体嵌入不仅可以减少内存使用和加速神经网络,更重要的是通过将相似的值映射到嵌入空间中靠近的位置,揭示了分类变量的内在属性,并帮助神经网络在稀疏且统计学未知的数据集上更好地泛化,因此在具有许多高基数特征的数据集上尤其有用,并且可以用于可视化分类数据和数据聚类。
Apr, 2016
采用深度神经网络来学习视觉特征,通过非参数优化方法而非参数 etric 分类器进行可视化识别,并在针对少数代表性例子的分类和子类别发现方面提供了更具有普遍适用性的特征表示。
Aug, 2018
本文研究网络嵌入的问题,提出了内容增强网络嵌入 (CENE) 的方法,该方法能够联合利用网络结构和内容信息,并通过将内容信息视为特殊节点来将文本建模和结构建模集成在一个通用框架中,试验结果表明,该模型在节点分类应用中胜过其他所有现有的网络嵌入方法,充分证明了内容信息和联合学习的优点。
Oct, 2016
本文提出了一种新颖的自监督表示学习方法,通过利用训练数据中的邻域关系编码来保留样本之间的联系并获得具有自主监督的判别性和无监督的表示学习方案。该方法不需要强制注释且适用于不同计算机视觉任务,包括分类、检测和分割等。此外,在对抗性攻击防御和视频异常检测等应用中,该方法的自编码能力也能发挥较好的作用。实验结果表明,该方法在每个特定应用场景下与最先进的方法相比性能更好或至少不逊色。
Aug, 2019
本文展示了一种新的深度学习自编码器网络,该网络使用非负约束算法(NCAE)进行训练,学习到的特征显示出数据的部分表示。在三个标准图像数据集和一个文本数据集上测试了算法的性能,并发现非负约束强制自编码器学习到数据的部分表示,同时改善了与传统的稀疏自编码器和非负矩阵分解相比的稀疏性和重构质量,进而提高了深度神经网络的预测性能。
Jan, 2016
通过估计数值节点属性之间的网络距离,我们可以创建网络感知嵌入,而不是对网络的节点进行聚类。在本文中,我们修复了无监督学习文献中的这个盲点,并展示了我们的方法在各种领域的应用中始终是有益的,并且可以提供可操作的见解。
Sep, 2023