Jul, 2024

探究联邦参数高效微调对医学图像分类的功效

TL;DR在医学成像领域中,大型预训练 Transformer 模型的微调是一个关键问题,训练数据匮乏、数据壁垒以及隐私约束等限制导致这一微调问题更加复杂,因此需要算法来实现预训练模型的协作微调。本研究系统地研究了各种联邦参数效率微调 (PEFT) 策略,以适应在大型自然图像数据集上预训练的 Vision Transformer (ViT) 模型在医学图像分类方面的应用,除了评估现有的 PEFT 技术,还引入了 PEFT 算法的新的联邦变体,例如视觉提示微调 (VPT)、视觉提示的低秩分解、随机块注意力微调以及低秩适应 (LoRA)+VPT 等混合 PEFT 方法。通过彻底的实证分析,本研究确定了联邦设置中的最佳 PEFT 方法,并理解了数据分布对联邦 PEFT 的影响,尤其是对于域外 (OOD) 和非独立同分布 (non-IID) 数据。这项研究的关键见解是,虽然大多数联邦 PEFT 方法适用于域内迁移,但处理OOD和非IID情况(这在医学成像中很常见)时,存在明显的准确性与效率的权衡,其结果是每一个数量级的微调/交换参数减少可能导致4%的准确度下降。因此,在联邦 PEFT 中初步模型的选择非常重要,最好使用基于域内医学图像数据的医学基础模型(若有)。