deep neural networks are typically trained under a supervised learning
framework where a model learns a single task using labeled data. Instead of
relying solely on labeled data, practitioners can harness unlabeled or related
data to improve model performance, which is often more acces
该论文提出了一种名为 LOOK 的基于留一法 K 最近邻(Leave-One-Out K-Nearest-Neighbor)的监督预训练方法,它通过让每个图像只与其 k 个最近邻居共享其类标签,从而允许每个类展现出多模式分布,从而更好地转移至下游任务,并在多个下游任务上的实验研究表明,LOOK 优于其他监督和自监督预训练方法。
自监督预训练在医学图像诊断任务中通过改善特征表示进而提高了下游任务性能,尤其是在无标注样本数量远远超过有标注样本数量时。该综述总结了近期在 X 射线、计算机断层扫描、磁共振和超声成像领域中应用自监督预训练与全监督学习相比较的研究,最重要的发现是自监督预训练普遍提高了诊断任务的性能。基于综合证据,为考虑使用自监督学习的实践者提供了相关的建议,同时针对当前研究中存在的局限性,提出了未来研究的方向与实践,如将临床知识与理论基础的自监督学习方法结合、在公共数据集上进行评估、扩展对超声成像领域的研究证据,以及表征自监督预训练对泛化性能的影响。