LabelEnc:一种新的目标检测中间监督方法
本论文根据对深度神经网络训练过程的观察,提出了 class-encoder 的形式化表述方法,它结合了自动编码器(auto-encoders)和 softmax 函数进行监督训练,以降低类别内部的特征空间变异性,提高人脸识别模型的分类性能。
May, 2016
该研究构建了自定义正则化函数用于深度神经网络的监督训练,利用自动编码器得到正则化器,实现分段模型标签的训练,并在语义分割中展示了正则化策略对提高准确率的实验结果。
Apr, 2018
通过引入名为 LEARN 的基于自动编码器的网络,该网络可以在不修改分类模型权重的情况下将其合并到分类模型,该方法在大遮挡下的图像分类问题中的性能显著优于标准分类模型,并且比其他最先进的方法提高了 2% 至多达 5% 的分类准确率。
Feb, 2024
本文提出了一种简单而有效的方法来解决多标签分类问题,该方法利用 Transformer 解码器查询类标签的存在,并使用视觉骨干计算的特征图来进行后续的二进制分类,相比于以前的工作,该方法更为简单有效,对于五个多标签分类数据集,包括 MS-COCO,PASCAL VOC,NUS-WIDE 和 Visual Genome,始终优于以前的所有工作,我们在 MS-COCO 上建立了 91.3%的 mAP。
Jul, 2021
本研究提出了一种多标签懒惰学习方法,以解决在存在高互相关联的复杂结构标签词汇的大型文档集合中的自动语义索引问题。该方法是传统 k 最近邻算法的演化,它使用经过训练的大型自编码器将大标签空间映射到较小的潜空间,并从该潜空间重新生成预测的标签。我们在 MEDLINE 生物医学文档集的大部分中使用医学主题词(MeSH)词库作为受控词汇对我们的提案进行了评估,实验中我们提出并评估了多种文档表示方法和不同的标签自编码器配置。
Feb, 2024
研究论文旨在提出一种减少对标记数据依赖的替代方法,通过在面部图像识别任务中利用自编码器预训练和两步过程来实现。自编码器首先以无监督的方式使用大量无标签的训练数据集进行训练,然后使用预训练自编码器的初始化参数进行深度学习模型的训练。该方法的实验结果表明,使用预训练自编码器参数初始化的深度神经网络可以达到与现有方法相媲美的效果。
Dec, 2023
通过引入 Converting Autoencoder 和 intraclass clustering 方法,本研究设计了 EncodeNet 框架,提高了 DNN 模型的准确性而不增加模型大小,并在 CIFAR-10 和 CIFAR-100 数据集上取得了比知识蒸馏和注意力机制更高的准确度。
Apr, 2024
这篇文章介绍了一种新的半监督分类方法,该方法使用监督自编码器网络,将标签编码到自编码器的潜空间,并定义一个结合分类和重构损失的全局准则,用 PyTorch 实现该半监督自编码器方法并展示其在生物医学应用中的卓越表现。
Aug, 2022
本研究比较了四种多标签分类方法,其中两种基于编码器,两种基于编码器 - 解码器。结果表明,在多个数据集上使用编码器 - 解码器方法比仅编码器表现更好,其非自回归编码器 - 解码器方法获得了最优表现。
May, 2023