- 利用自监督学习提升模型公平性
自我监督学习对模型的公平性具有显著影响,通过引入公平性评估框架,该研究系统地比较了数百个自我监督和精调模型在性能和公平性方面的差异,并证明了自我监督学习可以在最小损失性能的情况下显著提高模型的公平性。
- 对比学习下的图形全局概念解释
通过从图神经网络的预测中提取全局概念解释的方法,我们提出了一种超越提高信任和验证模型公平性的 xAI 实践,还能够在几乎没有人类先验直觉的应用领域中发现有价值的科学见解,从而对结构 - 性质关系的任务进行更深入的理解。
- 利用 CLIP 进行敏感信息推断和模型公平性改进
通过使用 CLIP 模型作为丰富的知识源来推断敏感信息,我们在图像和语言嵌入派生的相似度上进行样本聚类,并评估其与真实属性分布的一致性,然后通过重新采样和增强性能较差的聚类来训练目标模型,实验结果表明,该模型在多个基准偏见数据集上取得了明显 - 利用合成数据进行通用且公平的面部行为单元检测
通过使用合成数据和多源领域自适应方法解决已标记数据稀缺和性别多样性问题,本文提出了一种基于面部表情再目标化方法的面部动作单元检测模型,并采用配对矩匹配方法来提高性别平等性,实现实现在真实环境中的面部动作单元检测。
- 通过对比学习提升自动胸部 X 射线诊断的公平性
应用监督对比学习可以减轻胸部 X 射线诊断中的偏见,解决深度学习诊断方法中的公平性和可靠性问题。
- 生物识别应用中的模型压缩技术综述
深度学习算法在提高人类任务自动化能力方面发挥了重要作用,然而,这些模型性能的巨大提升与其日益复杂性高度相关,限制了它们在以人为本的应用中的实用性,而这些应用通常部署在资源受限的设备上。因此,我们需要压缩技术来大幅减小深度学习模型的计算和内存 - AAAI公平感知的 Transformer 结构剪枝
通过研究注意力头对大型语言模型的公平性和性能的影响,提出一种修剪注意力头的全新方法,能减少性别偏见约 19%至 39.5%,而性能仅稍微下降。
- Transformer-Based 语言模型注意力头中的偏见分析
通过对注意力头的偏见分析框架,发现预训练语言模型中存在有偏头部,这有助于对模型公正性进行评估和指导有效减轻策略的开发。对 BERT 模型和 GPT 模型的性别和种族偏见进行了广泛的实验研究,进一步理解了预训练语言模型中的偏见行为。
- 人工智能决策中解释对公平性的影响:受保护特征与代理特征
AI 系统中的偏见可以通过解释来帮助人工智能团队应对这些偏见,提高决策公正性,但解释可能无法揭示间接偏见,需要通过模型偏见披露和代理特征相关性披露来改善模型公平性感知和决策公正性。
- Muffin: 向多维度人工智能公平性前进的框架――联合现成模型
通过提出的 Muffin 框架,可同时改善两个不公平属性的公平性,其中一个属性的公平性提高了 26.32%,另一个属性的公平性提高了 20.37%;与此同时,还实现了 5.58% 的准确率提升。
- 通过乌托邦标签分布逼近学习主观时序数据
该论文提出了 Utopia Label Distribution Approximation (ULDA) 算法来解决时序数据中标签分布偏差问题,ULDA 使用高斯核卷积和时间切片正常抽样 (TNS) 两个模块,并引入卷积权重损失 (CWL - 公平性遇见跨域学习:模型和度量的新视角
本文提出了一个关于面部和医学图像的基准测试,并介绍了一个新的谐波公平(HF) 得分来综合地评估每个模型在准确性和公正性方面与参考基线相比的情况。实验结果发现,CD 方法比最先进的公平算法更能有效地解决模型公理问题。综上所述,我们的工作为计算 - 在相关性转移下改进公平训练
本文提出了一种解决模型公平性中的相关性变化问题的新颖方法,即引入相关性偏移的概念和采用预处理步骤以减少相关性偏移,并借此通过优化问题来调整数据比率,从而使得数据处理算法可以有效地提高其准确性和公平性。
- FairNeuron:利用选择性神经元对深度神经网络进行对抗游戏以提高公平性
本文提出了基于个体神经元表现出的矛盾现象的 FairNeuron 工具,通过选择性的神经元 Dropout 来实现模型准确性和公平性之间的平衡,从而有效提高所有模型的公平性,同时保持稳定的实用性。
- 机器学习算法在人口统计学上的公正性
研究俄罗斯人口数据的分类器的公平性问题,提出了使用 “特征丢弃” 来解决过程公平性,同时使用 “LIME 解释” 来评估分类器的公平性和决定敏感特征的消除,结果表明所有的模型都变得不再依赖于敏感特征,并表现出更好或没有影响的准确性。
- MM在多个数据集偏差源存在时,调查 AI 算法的低诊断率
该研究通过对人群亚组之间的疾病分类器性能分析,发现低诊断率造成的表现差异引起了关注,进一步强调了在训练数据中嵌入的人类偏见可能会放大现有的健康差异,并探讨了评估模型公正性的一些困难。
- ACL关于随机种子对临床分类器公平性的影响
本研究探究了深度学习模型训练中随机种子变化对模型公平性的影响,并使用 MIMIC-III 的临床预测任务验证了该现象,结果显示小样本和随机性可能导致结果的表面差异,同时同时优化高性能和低差异性并不能显著提高模型性能。