- 直接歧视的结构证据的本地因果发现
发展公平性应用的高效因果发现方法,我们引入局部发现直接歧视(LD3):一种多项式时间算法,用于提取直接歧视的结构证据,并证明该准则由 LD3 返回的知识满足,增加了加权控制直接效应作为因果公平性度量的可靠性。以肝脏移植分配为案例研究,我们展 - 对局部差分隐私对公平性影响的系统和正式研究:初步结果
通过定量研究隐私保护机制差分隐私对机器学习模型公平性的影响,本研究提供了在不同的隐私级别和数据分布下,差分隐私能对模型公平性产生影响的界限,并确定了隐私减少歧视和增加歧视的情况,验证了理论发现在合成和现实世界数据集上的有效性。
- 设计一种既公平于服务提供者又公平于任务的双赢战略,当拒绝不是一个选择时
将任务分配给服务提供者是各种应用中常见的过程,为了防止服务提供者过载而导致任务被拒绝,需要考虑公平性。本文将该问题建模为二部图中的在线匹配,并解决了两个极小极大问题:一个旨在最小化任务的最长等待时间,另一个旨在最小化服务提供者的最高工作负载 - 图像修复中的感知公正
图像恢复任务中的公平性是以同等好地处理不同子组的图像为愿望。本文提出了一种新颖的公平性方法,通过考虑群体感知指数(GPI)来评估算法的公平性,并在最先进的人脸图像超分辨率算法上展示其实用性。
- 公平的在线双边交易
在线双边贸易中,平台通过向具有私人估值的买家和卖家对发布价格来进行交易。该研究通过引入公平性来解决不平等的问题,并提出了对公平利益进行后悔边界的全面刻画。
- 信任公平数据:利用质量优化公平导向的数据去除技术
通过引入多目标优化问题来平衡公平性和数据质量,我们提出了一种找到帕累托最优解的方法,以消除偏见缓解技术对数据集的剔除特定数据点所带来的信任问题,并保证子集对整体人群的公平性、组覆盖率和最小数据损失。
- 基于社会福利优化的群体公平评估
该论文通过优化社会福利功能(SWF)来评估各种公平性定义,探讨了广义社会公正观念是否对实现 AI 中的公平性有用,结果表明最优解可以在特定条件下证明人口平等或平等几率,但通常需要偏离这些平等类型。此外,预测率平衡的实用性有限,这些结果表明优 - 基于偏倚和去偏倚的方法实现公平知识传递,用于公平皮肤分析
基于深度学习模型的皮肤疾病诊断中,为了解决公平性问题且不损害预测准确性,我们提出了一种基于两个偏倚的教师模型的方法,通过权重损失函数进行偏倚与去偏倚的训练,提高了模型的准确度和公平性。
- 电商领域大型语言模型的公平性调查:进展、应用与挑战
本研究综述了大型语言模型在电子商务中的公平性,包括其应用、进展和面临的挑战。研究探讨了大型语言模型在电子商务领域的关键应用,如产品评论、产品推荐、产品信息翻译和产品问答等,并指出了公平性挑战以及未来研究方向。
- ε- 公平的不公平性
本文研究了决策过程中的公平性,并提出了基于效用的方法来更准确地评估决策过程的真实世界影响。通过两个实际案例研究,发现传统的概率评估可能无法全面捕捉公平性,而基于效用的方法则可以揭示实现平等的必要行动。总结来说,本文强调了在评估公平性时考虑真 - 公平广义线性混合模型
使用机器学习进行自动预测时,公平性对于预测是很重要的。本文提出了一种算法,可以同时处理数据分层抽样和公平机器学习预测质量的问题。
- LLM 伦理导航:进展、挑战和未来方向
本研究探讨了人工智能领域中大型语言模型(LLMs)的伦理问题。它讨论了 LLMs 和其他人工智能系统所面临的常见伦理挑战,如隐私和公平,以及 LLMs 特有的伦理挑战,如幻觉、可验证的问责和解码审查复杂性。该研究强调了解决这些复杂性的必要性 - 通过通道修剪实现皮肤病诊断公平性
提出了一种创新且可适应的基于软最近邻损失的通道修剪框架,通过通道修剪实现公平性,有效提高公平性而不明显损失准确性。
- 本地化自适应风险控制
在线校准的自适应风险控制 (ARC) 是一种基于集合预测的在线校准策略,提供最坏情况下确定性的长期风险控制以及统计边际覆盖保证。本文介绍了局部自适应风险控制 (L-ARC),这是一种针对统计局部风险保证(从条件风险到边际风险)的在线校准方案 - 公平精确性平衡下的内在公平性 - 准确性权衡
机器学习在执法、刑事司法、金融、招聘和招生等领域的日益广泛应用,确保机器学习辅助决策的公平性变得越来越关键。本文以统计学的 “平等机会” 概念为基础,研究了公平性和准确性之间的折衷。我们提出了一个新的准确性上限(适用于任何分类器),并将其作 - 强化学习中的公平性调查
在本文中,我们调研了相关文献,提供了公平强化学习领域最新的发展概况。我们首先回顾了公平在强化学习中可能出现的情况,然后讨论了到目前为止提出的各种公平定义。接着,我们突出了研究人员在单智能体和多智能体强化学习系统中实现公平的方法论,并展示了公 - 构建桥梁:接近公平和一致情绪分析的协议
机器学习算法在日常生活中的不断整合凸显了它们在部署中公平和公正的关键需要。情感分析的自动化,在生理学、心理学和机器学习的交叉点上,取得了显著的发展。然而,现有的数据库和方法缺乏统一性,导致存在偏见的评估。本研究通过对六个情感数据库进行分析, - 公平混合效应支持向量机
机器学习中的公平性与聚类数据对公平机器学习预测的影响,以及一种能够同时处理这两个问题的公平混合效应支持向量机算法。
- 个性化多议题协商游戏中的语言模型
利用大型语言模型(LLMs),AI 代理已经能够完成许多人类任务。使用最经典的大五人格定义,我们衡量 LLMs 在博弈论框架内进行协商的能力,以及衡量公平与风险概念的方法论挑战。模拟结果(n=1,500)显示基于不对称议题价值的领域复杂性增 - CVPR利用独立于模型的数据归因来减少偏见
通过利用像素图像属性来缩小机器学习模型中的偏见,本文提出了一种新方法,该方法利用卷积神经网络(CNN)分类器通过训练小图像块来提取像素属性,从而实现区域性属性,进而提供有关重要信息在图像中分布的洞察力。通过在偏倚数据集中引入有针对性的噪声,