FRAMM: 临床试验选址中考虑缺失数据的公平排名
该研究探讨了使用机器学习指导临床决策可能加剧现有的健康差距问题的潜力,并分析了算法公平的适用性、技术限制以及与机器学习在医疗保健中使用相关的社会技术背景。研究结果表明,在对各组之间的预测分布差异进行惩罚的情况下,几乎所有团体内的多项绩效指标都会降低,并且算法公平性方法在消除健康差距方面仍存在许多有待解决的问题。
Jul, 2020
该研究讨论了使用神经网络建立心脏数据的图像分割模型时,数据库不平衡导致的种族偏见,提出了三种解决方案,并发现 protected group models 的使用最有效。
Jun, 2021
使用基于Transformer的自然语言处理的人工智能方法(AICO),通过真实数据评估入组标准,从大量相关临床试验中提取常见入组标准变量并测量临床试验设计的泛化性,解决了现有手动方法的可扩展性问题,并能快速模拟感兴趣疾病的入组标准设计。以乳腺癌试验设计为例,展示了该方法在改进临床试验泛化性方面的效用。
Sep, 2021
本研究提出了一种公平的患者-试验匹配框架,通过生成患者-标准级别公平性约束来解决一些敏感群体参与临床试验不足的公平性问题,实验证明该框架可以成功缓解倾向于带有偏见的预测。
Mar, 2023
研究使用大型语言模型(LLMs)协助患者和转诊医生从广泛的选择中筛选适合的临床试验,并评估了TrialGPT在184名患者和18,238个注释临床试验的实验结果,表明其高准确性和排名排除不合格候选试验的有效性。
Jul, 2023
通过引入簇不变固定效应和簇特定随机效应,我们提出了一种混合效应深度学习(MEDL)框架,以同时解决传统深度学习中的样本独立性和公平性问题。通过对贷款批准和健康保险费率等关键领域中正当性敏感变量进行公平性推进,MEDL框架显著提高了公平性,同时保持高性能和清晰度。
Oct, 2023
我们提出了一个可解释的框架 - 公平感知可解释建模(FAIM),以提高模型的公平性,同时保持性能,通过交互界面从一组高性能模型中识别出一个“更公平”的模型,并推动数据驱动证据和临床经验的整合,以增强情境公平性。我们通过使用两个真实世界数据库(MIMIC-IV-ED和SGH-ED)在预测入院时减少性别和种族偏见方面展示了FAIM的价值。我们展示了针对这两个数据集,FAIM模型不仅表现出令人满意的区分能力,而且通过广泛使用的公平度量指标显著减轻了偏见,胜过常用的偏见减轻方法。我们的方法展示了在不牺牲性能的情况下提高公平性的可行性,并提供一种邀请领域专家参与的建模模式,促进定制人工智能公平性的多学科工作。
Mar, 2024
公平性对于深度学习至关重要,尤其是在医疗领域,因为这些模型会影响诊断和治疗决策。本研究介绍了第一个公平的医学视觉语言数据集FairVLMed,通过提供详细的人口属性、真实标签和临床笔记来深入研究视觉语言基础模型内的公平性。使用FairVLMed,我们对两个广泛使用的视觉语言模型(CLIP和BLIP2)进行了全面的公平性分析,这两个模型分别在自然和医学领域进行了预训练,并跨越了四个不同的受保护属性。研究结果显示,所有视觉语言模型都存在显著偏见,其中亚洲人、男性、非西班牙裔和西班牙语为种族、性别、民族和语言方面的首选子群体。为了减轻这些偏见,我们提出了一种基于最优输运的方法FairCLIP,通过减小整体样本分布和相应人口群体分布之间的Sinkhorn距离,在性能和公平性之间实现了有利的权衡。作为首个类似数据集,FairVLMed有潜力促进开发既具有道德意识又具有临床有效性的机器学习模型的进步。
Mar, 2024
通过引入CLIMB(Clinical Bias in Large Language Models的衡量方法)的综合评估,揭示了大型语言模型(LLMs)在临床决策中普遍存在的内隐和外在偏见,并强调了减轻临床偏见的重要性和未来评估LLMs临床偏见的新标准。
Jul, 2024
这篇研究论文提出了一种利用大型语言模型(LLM)增强的文本特征的新型深度交叉网络,通过学习试验的资格标准的语义信息并预测招募成功,实现了可解释性,并证明了该方法在机器学习方法中的出色表现(0.7002 PR-AUC)
Jul, 2024