FERI:一种基于多任务的公平实现算法及其在公平器官移植中的应用
本文提出了使用多任务深度学习模型预测肝移植后的多个风险因素,同时提出一种新的公平算法以确保对不同亚群体的预测结果公平性。在 160,360 名肝移植患者的电子健康记录上进行了实验证明该预测模型具有高准确性和良好的平衡性。
Apr, 2023
该研究介绍了 MEDFAIR 框架,可以用于医学成像机器学习模型的公平性评估和算法的基准测试,通过实验发现模型选择标准可以对公平性结果产生重要影响,并在不同的应用场景和伦理原则下提供了建议。
Oct, 2022
通过使用 f - 分散度测度的统一随机优化框架实现公平经验风险最小化,在考虑公平性和准确性的权衡时具有优势,并能够应对训练与测试数据之间的分布差异。
Dec, 2023
该研究提出了一种新的联邦学习算法,专门解决群体公平性问题,该算法在统计异质性和不同数量的客户端存在的情况下,既可以定量又可以定性地改善公平性,并几乎不影响准确度,并且与本地差分隐私兼容,通信成本微不足道。这一算法对于提高敏感应用领域(如医疗保健或刑法司法)的联邦学习系统的公平性和有效性具有重要的潜力。
Jul, 2023
本文讨论了多任务学习中组公平性对于准确性的影响,提出了一种新的测量多维 Pareto 前沿的公平性 - 准确性权衡的方法,并提出了一种多任务感知公平性(MTA-F)方法来改善多任务学习中的公平性。实验结果表明,该方法的有效性。
Jun, 2021
通过设计公平反馈调查问卷评估一种肾脏接受率预测器(ARP),以及提出基于最小化社会反馈遗憾的新型逻辑回归公平反馈模型的社会公平偏好学习算法,本研究估计并详细讨论了众筹调查中公众对肾脏配对中的群体公平概念的偏好。
Apr, 2024
通过在德国信贷批准数据集上的实验证明,将图拉普拉斯正则化程序用于算法公平性技术可以提高个人公平性并降低偏差,同时揭示了 Prediction Consistency 评分可能会误导的问题。
May, 2024
该研究提出了一种基于证据学习的多视角方法(MERIT),具备对预测结果不确定性的量化和可解释性,对于肝纤维化分期决策过程中每个视角的重要性提供了阐明。
May, 2024
在医学诊断等伦理敏感应用领域,以鲁棒的群体公平性训练模型至关重要。尽管有越来越多的研究旨在减少人工智能中的人口偏差,但这个问题仍然具有挑战性。公平性的泛化差距是这个挑战的原因之一:高容量的深度学习模型几乎可以完美地拟合所有训练数据,从而在训练过程中也表现出完美的公平性。在这种情况下,偏差仅在测试时出现,因为泛化表现在不同的子群体之间有差异。这激发了我们从双层优化的角度来看待公平学习:根据验证公平性来优化学习策略。具体而言,我们考虑采用适应预训练模型到下游医学图像任务的参数高效微调(PEFT)技术的高效工作流。在更新更多参数以更好地适应感兴趣的任务与更新更少参数以减少泛化差距之间存在权衡。为了处理这个权衡,我们提出了一个框架 FairTune,以优化与公平性相关的 PEFT 参数的选择。我们经验证明,FairTune 在一系列医学图像数据集上能够提高公平性。
Oct, 2023