退缩遮蔽自编码器是超声图像识别的更佳方法
Multi-level Optimized Mask Autoencoder (MLO-MAE) is a novel framework for visual representation learning that leverages end-to-end feedback from downstream tasks to learn an optimal masking strategy during pretraining, demonstrating remarkable improvements in adaptability and efficiency compared to existing methods.
Feb, 2024
利用注重对象的重建过程来指导复原能力的建议,通过在损失函数中利用场景的注意力图获取的注意力图,提供更多的重建相关对象的强调,从而激励模型学习更加注重对象的表示,同时通过改进的线性探测和 k-NN 分类在几个基准测试中展示出我们预训练模型具有更好的潜在表示能力,同时使 ViTs 对不同背景更加稳健。
Feb, 2024
本文提出了一种 Medical Supervised Masked Autoencoder (MSMAE) 模型来解决传统 Masked Autoencoder (MAE) 模型在医学图像分类和分割中存在的问题,通过监督训练精确地遮蔽医学图像以及在微调阶段通过注意力机制指导遮蔽医学图像,显著提高了 MSMAE 模型的计算效率和医学诊断质量。
May, 2023
通过引入一种名为 LoMAE 的低水平视觉 MAE 模型,本研究展示了一种提高 transformer 去噪性能的方法,极大地减少了对干净数据的依赖,并在不同噪声水平下展现了显著的鲁棒性和普适性。
Oct, 2023
本文介绍了一种基于 MAE 的扩展方法,通过引入感知相似度项和采用来自生成对抗网络领域的多级训练和自适应鉴别器增强等技巧,可以更好地重构像素并学习到更高级别的场景特征,进而在不使用其他预训练模型或数据的情况下,提高了图片分类等下游任务的性能,并在 ImageNet-1K 数据集上达到了 78.1% 的准确率。
Dec, 2022
本文研究了 Masked Autoencoder 的数据扩增问题,提出了基于同源识别的 Mix Autoencoder 方法,通过自监督预训练可以提升下游视觉任务表现,在 ImageNet、ADE20K 和 COCO 数据集上 outperforms 了 MAE 和 iBOT 的方法。
Mar, 2023
提出一种基于采样高时空令牌的创新 MAE 架构 SurgMAE,应用于手术视频领域的自监督学习,证明了该方法在低数据量条件下的有效性及其在非手术数据集 UCF-101 上的泛化性能优越性。
May, 2023
我们提出了一种基于课程学习的掩模自编码器(CL-MAE),通过不断增加自监督重建任务的复杂性,逐渐提高模型学习更复杂和可转移的表示能力,并使用 Curriculum-Learned Masked Autoencoder (CL-MAE) 在 ImageNet 数据集上进行训练,通过在五个下游任务上的实证结果验证了我们的猜想,展示了课程学习在自监督掩模自编码器中的成功应用。
Aug, 2023
基于掩蔽自动编码器(MAE)的无监督预训练技术及心电图 (ECG) 分析的完整架构,用于利用未标记数据的任务特定微调,对于心电图心律失常分类任务,所提出的方法在 MITDB 数据集上取得了 94.39% 的准确率,相较于全监督方法,在分类以前未见数据上体现出更好的性能。
Oct, 2023
本文展示掩码自动编码器 (MAE) 是可扩展的自监督计算机视觉学习器,通过实现以两种核心设计为基础的 MAE 方法:一种不对遮罩令牌进行编码的编码器和一种从潜在表示和遮罩令牌中重建原始图像的轻量级解码器,并使用更高比例的保持训练图片完整性的遮罩令牌,同时能够提高训练精度和加速计算。本方法能够训练大型高容量模型,并 Transfer Learning 具有出色的性能。
Nov, 2021