Oct, 2024
少即是多:通过选择性减少CT数据,实现深度学习模型的自监督预训练,基于对比学习提高下游分类性能
Less is More: Selective Reduction of CT Data for Self-Supervised
Pre-Training of Deep Learning Models with Contrastive Learning Improves
Downstream Classification Performance
Daniel Wolf, Tristan Payer, Catharina Silvia Lisson, Christoph Gerhard Lisson, Meinrad Beer...
TL;DR本研究针对现有对比学习在医学影像中的应用问题,通过提出基于深度嵌入、信息论和哈希的策略,识别并减少医学预训练数据集的冗余。研究表明,数据集减少能显著提升下游分类任务的性能,同时预训练速度提高,强调了数据集质量在医学图像分类中的重要性。