- 数据集代表性与下游任务公平
数据集的代表性与分类器公平性之间存在复杂的关系;平衡这两个量需要模型和数据集设计者特别注意。
- 自主驾驶中的公平性:对挑战性天气下目标检测的混淆因素的理解
自主驾驶车辆部署迅速扩张至多个城市。本研究分析了目前最先进的基于 Transformer 的目标检测器中对行人检测公平性的全面实证分析,包括经典度量和新颖的基于概率的度量,以探索保护属性和环境因素对目标检测性能的影响。
- 评估预测菲律宾学生学术表现的模型中的算法偏见
这篇论文在亚洲学习环境中研究了机器学习模型中的算法偏见问题,通过分析学生活动数据,发现没有针对特定学生群体的等级预测不公平现象。
- 审计语言模型用于指导招聘决策
在大型语言模型中检测算法偏见的对应实验方法,发现适用于 K-12 教职申请的各种模型存在中等程度的种族和性别差异,但同时也存在一些重要的限制。
- 跨模态去偏倚:利用语言减轻图像中的亚种群转变
本文通过利用多模态基础模型中的分布鲁棒性,通过参数微调来提高分布鲁棒性,并利用自然语言输入来消除图像特征中的偏见,从而在子群落变化下改善最坏情况性能。大量实证研究表明,通过自然语言进行去偏倚的图像表示能够显著提高性能,并降低在子群体变化下的 - SUDO: 无需真实标注的评估临床人工智能系统的框架
通过 SUDO 框架,可以评估无标注的数据并训练模型,识别不可靠的预测结果和评估医学中 AI 系统的算法偏差。
- 在一个运行中耦合公平与修剪:一个双层优化视角
通过公平剪枝技术,我们提出了一种基于稀疏模型的公平剪枝框架,旨在在保持性能的同时确保公平性,并通过实验证明了该方法在维持模型公平性、性能和效率方面的优越性。
- 减轻二元分类中的非线性算法偏差
该论文提出使用因果建模来检测和减轻与受保护属性非线性相关的算法偏差。我们使用了 UC Irvine 机器学习库中提供的 German Credit 数据集来开发 (1) 一个被视为黑盒的预测模型和 (2) 用于偏差减轻的因果模型。我们聚焦于 - 检测医疗 AI 模型中的算法偏见
通过使用 CART 算法,本研究提出了一种创新的框架,用于检测医疗人工智能决策支持系统中的算法偏见。通过一系列合成数据实验和格拉迪纪念医院的电子病历实验,我们验证了该方法的准确性和实用性,进一步证明了它在临床环境中作为确保公平和公正的关键工 - 使用因果建模检测和减轻二元分类中的算法偏见
利用因果建模来检测和减轻算法偏差,本文针对性别偏见和二分类问题,使用成年人数据集通过建立预测模型和因果模型,证明了预测模型中的性别偏见在 0.05 水平上显著,并通过交叉验证展示了因果模型减轻性别偏见的效果并略微提高了整体分类准确度,该方法 - 利用大型语言模型识别电子健康档案中的社会决定因素
本研究使用大型语言模型从电子健康记录中提取社会健康决定因素(SDoH),并研究了合成临床文本对提取这些临床数据的改进作用。最佳模型是经过微调的 Flan-T5 XL(宏 F1 值为 0.71)任何 SDoH 和 Flan-T5 XXL(宏 - 信用中的公平模型:交叉歧视与不公平加剧
使用机器学习在信用建模中的新数据来源引发了涉及受保护特征(例如种族、性别、年龄)或其他社会经济与人口统计数据的不公平决策的担忧。本文通过微金融背景展示了此类算法偏见的影响,并综合干预性的视角研究了以性别、年龄、婚姻状况、单亲状态和子女数量为 - 非公平的午餐:医学影像机器学习数据集偏差的因果观点
机器学习方法在临床决策中的重要性日益提升,因此解决公平性问题变得越来越迫切。尽管已经有很多工作致力于检测和改善算法偏见,但目前的方法存在缺陷和潜在危害。我们提出因果角度来研究算法偏见,强调数据集偏见的不同来源可能看起来相似,但需要采用截然不 - ICML通过解耦置信学习缓解标签偏差
通过提出一种修剪方法,Decoupled Confident Learning (DeCoLe),来解决标签偏见问题,并在仇恨言论检测领域应用其性能,成功识别了偏见标签并超过其他方法。
- 子群分离在群体公平医学图像分类中的作用
我们研究深度分类器中的性能差异。我们发现分类器将个体分为子群的能力在医学成像模态和保护特性之间存在显著差异;关键是,我们展示了这一特性对算法偏见具有预测作用。通过理论分析和广泛的经验评估,我们发现了子群分离性、子群差异和在训练数据存在系统偏 - ACLMISGENDERED: 大型语言模型在理解代词方面的局限性
本文探讨了语言技术中的性别偏见问题,提出了一个 MISGENDERED 框架来评估语言模型的性别中性人称的正确使用,发现基于二元性别训练的语言模型在使用非二元人称时普遍存在误差和算法偏差。
- KDD使用印象方差感知强化学习实现个性化广告公平
该研究提出了一种名为 VRS 的框架,通过降低广告印象方差来实现个性化广告系统中的公平性,进一步探讨了广告系统中算法偏见的问题。
- 探究语言识别模型的性能:超越简单的错误统计
研究语言识别系统在 MERLIon CCS 挑战中对不同语言特性的子集的表现,考察其对录音和语音单元的性能,并且提出评估指标的局限性和可能导致算法偏差的问题。
- 伦理与深度学习
本文主要探讨 AI 系统设计和使用中可能出现的潜在危害,包括算法偏见、缺乏可解释性、数据隐私违规、军事化、欺诈和环境问题。
- 欧盟非歧视法视角下的算法不公平:为何法律不是决策树
本研究旨在分析欧洲联盟的非歧视法与计算机科学领域先进的算法公正概念之间的重叠与区别,研究表明,当前的 AI 实践和非歧视法存在的局限性,对 AI 从业者和监管者有着重要的启示。