- 在神经气候模拟器中强制执行公平性
神经网络模拟器在气候和天气预测任务中已成为一种非常有价值的工具,但其无法保证提供公正的预测结果,因此需要在神经网络中采用明确的公平性表示方法。本研究提出一种自定义损失函数,通过惩罚具有不同质量预测结果的模拟器,在人类发展指数 (HDI) 等 - 多模态人工智能中的公平性与偏见:一项调研
人工智能系统中解决公平性和偏差的重要性不可低估。本文填补了大型多模态模型在公平性和偏差研究方面相对于大型语言模型的缺口,提供了 50 个数据集和模型的示例以及影响它们的挑战;我们除了文献中已知的内在偏差和外在偏差两种方式外,还确定了一种新的 - 动态去偏:基于解释的人工监督机器学习系统决策
提出了一种新颖的在部署的机器学习系统中跟踪和纠正歧视的方法,它利用反事实解释来持续监测机器学习系统的预测,并标记歧视性结果,然后将与原始预测和反事实替代方案相关的后续解释呈现给人工审查者进行实时干预,从而实现公平和负责任的机器学习操作。
- 在联邦学习中实现本地模型和全局模型的公平性
通过引入 EquiFL,增强联邦学习环境中的本地和全局公平性,同时确保准确性和公平性之间的良好平衡,并通过协调机制防止偏见在合作阶段间的传播。在多个基准测试中进行了广泛的实验证明 EquiFL 不仅在每个客户端实现了准确性和公平性之间更好的 - 解决表现预测中的极化和不公平问题
通过对执行预测的稳定解的公平性进行研究,我们发现在模型依赖的分布变化情况下,现有的公平机制可能会引发严重的极化效应和组内损失差异,并提出了一种能够同时实现稳定和公平的新的公平干预机制。
- 公平联邦学习的半方差缩减
通过引入 Variance Reduction 和 Semi-Variance Reduction 两个新的公平联邦学习算法,研究了确保联邦学习系统中的公平性是一个重要且具有挑战性的问题。这些算法通过惩罚不同客户之间的损失函数方差或者平均值 - 公平聚类:评析、注意事项和未来方向
公平聚类是机器学习和运筹学中的一个基本问题,然而,在算法设计中考虑公平性已变得极其重要,因此公平聚类已经受到研究界的广泛关注。本文对公平聚类进行了批判性的审视,发现了一些被忽视的问题,例如缺乏明确的效用描述和在机器学习环境中考虑公平聚类算法 - CT 成像的全面索引和语义注释:提升 FAIR 性
该研究介绍了一种通过自动索引和语义增强来提高临床 CT 图像系列的可发现性、可访问性、可互操作性和可重用性的方法,使用 HL7 FHIR 资源对元数据进行标准化,以提供医学影像数据的易发现性并促进互操作性,为医疗人工智能应用的大规模集成和索 - FairX: 使用公平性,效用性和可解释性的综合性模型分析基准工具
FairX 是一个开源的基于 Python 的基准测试工具,旨在综合分析公平性、效用性和可解释性(XAI)模型的广泛名称,能够训练基准测试去偏置模型并使用多种公平度量标准、数据效用度量标准评估其公平性,并针对模型预测生成解释,所有这些均在统 - IJCAI回归任务中公平度测量方法的一致性
通过对各种回归任务进行广泛实验,本文全面研究了各种公平性度量方法的输出一致性,结果发现某些方法在特定的回归任务中表现出较差的一致性,因此需要在回归领域中采用更加原则性的方法来度量公平性。
- KDD一尺之法:面向多种敏感属性的公正图神经网络学习
最近的研究强调了图神经网络(GNN)中的公平性问题,即 GNN 针对被敏感属性(如种族和年龄)分类的特定保护群体产生了歧视性预测。针对这个问题的不同努力取得了显著进展,但往往专门针对特定的敏感属性,因此需要从头开始对模型进行重新训练以满足敏 - 利用大型语言模型揭示和缓解心理健康分析中的偏见
大型语言模型的进展展示了在各个应用领域的强大能力,包括心理健康分析。然而,现有的研究着重于预测性能,对公平性这一关键问题的探讨不足,给弱势人群带来了重大风险。我们通过针对八个不同的心理健康数据集,使用十种不同的提示方法,系统地评估了七个社会 - 公平偏好引导改进人工对齐的大型语言模型判断
使用大型语言模型 (LLMs) 进行语言生成质量评估既具有成本效益又不需要参考样本表明其具有很大潜力。然而,LLMs 表现出偏好偏向和对提示设计敏感。在本研究中,我们发现即使在语义上等效的指示下,LLMs 的预测偏好可能非常脆弱和倾斜。因此 - 联邦学习中的安全、隐私和公平的链接:新的平衡和新的视角
联邦学习中隐私、安全和公平的问题及其相互关系,以及其中的权衡。
- ACL通过多任务学习解开方言与社会偏见以提高公平性
方言、自然语言处理方法、偏见语言、公平性和多任务学习的关键字;使用多任务学习可以提高公平性,并更可靠地检测偏见语言的特性。
- 基于评分的扩散模型的公平数据生成
通过使用扩散模型为基础的框架 FADM,本文提出了一种从存在偏见的数据集中生成全新的、公平的合成数据,而不是直接引入公平学习算法来解决人工智能决策公正性问题。实验证明,FADM 在下游任务中表现出更好的准确性和最佳的公平性,同时允许对生成样 - 公平 GLASSO: 无偏统计行为估计公平图模型
我们提出了一种公平估计的高斯图模型,该模型可以通过两个偏差度量来促进不同敏感属性的节点组之间的统计相似性的平衡。利用这些度量,我们提出了一种称为 Fair GLASSO 的正则化图拉索方法,以获得在组之间具有无偏统计依赖关系的稀疏高斯精度矩 - 机器学习在医疗中的公平性教程
在临床决策和预防现有医疗不公平中确保机器学习算法在所有患者群体中安全有效,不会对特定患者造成不利影响,对于医学信息学社区非常重要。本教程的目标是向医学信息学社区介绍机器学习中的公平常见概念,重点关注临床应用和实际实施。
- ICML多目标强化学习的最大最小公式:从理论到无模型算法
本文研究多目标强化学习在应对多个优化目标的实际问题中的应用,采用最大最小框架从公平的角度出发并在该框架下提出了相关理论和实用的无模型算法。所提出的理论在多目标强化学习方面具有理论上的突破,而所提出的算法在性能上显著优于现有的基准方法。
- 对话场景外提示提升大型语言模型预测的公平性和鲁棒性
通过利用因果关系作为一种工具来提高大型语言模型的可信度,我们提出了一种测试时解决方案 —— 利用开放背景提示来鼓励公平性和稳健性,以使模型在不同基准数据集上提供更可靠的预测。