Oct, 2023

FairTune: 优化参数高效微调用于医疗图像分析中的公平性

TL;DR在医学诊断等伦理敏感应用领域,以鲁棒的群体公平性训练模型至关重要。尽管有越来越多的研究旨在减少人工智能中的人口偏差,但这个问题仍然具有挑战性。公平性的泛化差距是这个挑战的原因之一:高容量的深度学习模型几乎可以完美地拟合所有训练数据,从而在训练过程中也表现出完美的公平性。在这种情况下,偏差仅在测试时出现,因为泛化表现在不同的子群体之间有差异。这激发了我们从双层优化的角度来看待公平学习:根据验证公平性来优化学习策略。具体而言,我们考虑采用适应预训练模型到下游医学图像任务的参数高效微调(PEFT)技术的高效工作流。在更新更多参数以更好地适应感兴趣的任务与更新更少参数以减少泛化差距之间存在权衡。为了处理这个权衡,我们提出了一个框架 FairTune,以优化与公平性相关的 PEFT 参数的选择。我们经验证明,FairTune 在一系列医学图像数据集上能够提高公平性。