- 信息检索中的偏见和不公平问题统一化:对大型语言模型的挑战与机遇的调查
该研究论文综述了大型语言模型 (LLMs) 在信息检索系统中引起的偏见和不公平性问题,以及相关的缓解策略,主要聚焦于数据收集、模型开发和结果评估三个关键阶段,并提出了未来研究中可能面临的问题和挑战。
- 学习具有高置信度保证的公平表示
本研究提出了一种称为 FRG 框架的公平表示学习方法,该方法能够提供对所有下游模型和任务的不公平性的高置信度保证,并通过用户定义的上界限制不公平性。实证评估结果表明,FRG 方法能够有效地上界限制多个下游模型和任务的不公平性。
- 动态推荐系统中的流行度偏差度量
量化推荐系统中的偏见和偏差是重要的,本文提出了四个度量指标来衡量受时间和敏感用户组影响的推荐系统中的流行度偏差,并展示了这些度量指标综合使用时能够全面了解敏感群体之间的不公平对待逐渐增加的情况。
- 在推荐系统中处理用户约束的主导集以实现用户导向的公平性
推荐系统中存在用户取向公平性(UOF)问题,为了解决这个问题,我们提出了一个通用的 In-UCDS 框架,该框架可以应用于任何骨干推荐模型以实现用户取向公平,并且通过联合公平损失和原始骨干模型损失来维护整体推荐性能。
- 不平衡研究提案主题推理中的跨学科公平性:一种基于层次变压器的选择插值方法
基于 Transformer 编码器 - 解码器架构实现的主题标签推断系统,利用插值技术在训练时从非跨学科提案中创建一系列伪跨学科提案,旨在减少模型训练中的偏见,进行了大量实验证明了该方法在主题推断任务中显著减轻了产生的不公平。
- Muffin: 向多维度人工智能公平性前进的框架――联合现成模型
通过提出的 Muffin 框架,可同时改善两个不公平属性的公平性,其中一个属性的公平性提高了 26.32%,另一个属性的公平性提高了 20.37%;与此同时,还实现了 5.58% 的准确率提升。
- 人员监督软件掺杂分析
本文介绍了一个框架,旨在帮助减轻软件可能带来的社会风险。具体而言,包括软件兴奋剂以及高风险决策系统中的不公平和歧视方面。
- FairLay-ML: 数据驱动型社会关键算法中不公平现象的直观解决方案
本文介绍了 FairLay-ML,一种结合了已有研究工具的图形用户界面,能够提供机器学习模型中不公平逻辑的直观解释,具有易于安装、提供实时黑盒解释和可执行的解决方案等特点。
- 公正视角下的实体匹配实验分析与评估
通过大规模实验证明了实体匹配算法的公平性存在潜在的不足,特别在现实社会中出现一些特定条件下的人口群体过多代表性和名字相似度不同的群体之间。
- 通过训练概念影响来理解不公平
通过预定义的概念进行反事实干预,通过影响函数计算培训样本对模型的不公平的影响,帮助实践者理解观察到的不公平现象并修复其培训数据,从而实现检测错误标记、修复不平衡表示、检测针对公平性的污染攻击等其他应用。
- ChatGPT 的公正性
本文旨在系统评估 ChatGPT 在高风险领域中的表现,并考虑使用有偏或无偏提示时 ChatGPT 输出中的差异,以实现 LLM 的公平性能的深入理解,促进偏见缓解和负责任人工智能系统的发展。
- 分类和自动文本分析中的偏见、多样性和公平性挑战:从图书馆到人工智能,再回到基础
本文探讨了图书馆应用中人工智能所带来的偏见与不公平问题,并分析了多样性与不公平之间的关系,提出把增强多样性作为一种解决不公平问题的对策。
- 通过进化多目标集合学习减少不公平
本文提出一种基于多目标进化学习框架的方法,用于优化机器学习模型的准确性和多个公平度量,并构建集合以平衡不同度量,并通过实验结果证明与其他消除不公平的方法相比,我们的算法能够为决策者提供更好的准确性和多个公平度量之间的权衡。
- ICML自囚于设备:模型如何在表现性预测中引起数据偏差
该研究提出一种分类法,以表征数据中的偏差,并研究了表现预测中的两种典型偏差:分布偏移和选择性标签对性能和公平性的危害,通过真实案例研究了欺诈检测中的不公平问题。
- AAAI公平标签能导致不公平的预测:引入不公平性的图形条件
研究机器学习系统中的歧视性关系,通过引入总变差来衡量歧视效应,发现在特定条件下可能导致引入不公平现象,并探讨敏感属性作为特征的影响以及从因果关系的角度考虑特定路径的公平性问题。
- 机器学习模型中的偏见和不公平性:系统性文献综述
本研究旨在检查现有知识中关于机器学习模型中的偏见和不公平的研究,并识别减弱算法不公平和偏差的方法、公平性度量和支持工具。经过系统文献综述,发现了 40 篇可用于 Scopus、IEEE Xplore, Web of Science 和 Go - WWW面向用户的推荐公平性
本文基于用户视角,探讨推荐系统中存在的不公平问题,提出使用重新排序的方法来减轻推荐系统在活跃用户和非活跃用户之间的质量偏差问题,从而提高系统的公平性和整体推荐性能。
- 公平机器学习的可解释性
本文提出了一种新的基于 Shapley 值范例的机器学习公平解释方法,并提出了一种元算法来应用现有的训练时公平干预。
- ICML一种因果线性模型,用于量化边缘流和边缘不公平性,以实现不公平边缘优先和歧视消除
通过先优先考虑不平等的来源来减轻其基本不合理性,本论文提出了一种公正边缘优先算法以及去偏见的生成数据分配模式,其基于代表数据生成过程的因果贝叶斯网络和结果不公平的敏感节点。
- 高效公平主成分分析
提出一种适应性一阶算法,通过使用 Pareto 最优性的概念来学习保持公平性,同时略微牺牲重构损失的子空间,证明了该算法的解对于所有敏感群体都属于 Pareto 前沿,从而保证了整体重建损失和公平约束之间的最优权衡,并提供了收敛分析和验证了