面向公平感知的多目标优化
使用多目标优化的方法直接优化错误 - 公平性权衡,并提出了一个灵活的框架来定义权重分类问题和多个代价函数,以减少优化参数,同时在真实问题中获得了更好的错误 / 公平性权衡解决方案。
Apr, 2023
本文介绍了一种新的处理公平性的方法,通过建立一个随机多目标优化问题,得到一组准确且平衡的 Pareto 前沿,以此权衡准确度和公平性,以更高效地处理大量的流数据。
Aug, 2020
本文提出一种基于多目标进化学习框架的方法,用于优化机器学习模型的准确性和多个公平度量,并构建集合以平衡不同度量,并通过实验结果证明与其他消除不公平的方法相比,我们的算法能够为决策者提供更好的准确性和多个公平度量之间的权衡。
Oct, 2022
通过引入一个名为 LoTFair 的在线算法,本研究提出了一个框架,用于在具有时间变化公平性约束的动态决策系统中确保长期公平性。研究证明,LoTFair 可以在保持长期性能的同时,使整体公平性违规变得微不足道。
Jan, 2024
讨论如何使用因果贝叶斯网络和最优输运理论来处理机器学习公平性问题,尤其是在复杂的不公平场景下,提出了一种统一的框架来处理不同的情况和公平标准,并介绍了一种学习公平表示的方法和一种考虑敏感属性使用限制的技术。
Dec, 2020
本文讨论了多任务学习中组公平性对于准确性的影响,提出了一种新的测量多维 Pareto 前沿的公平性 - 准确性权衡的方法,并提出了一种多任务感知公平性(MTA-F)方法来改善多任务学习中的公平性。实验结果表明,该方法的有效性。
Jun, 2021
隐私和公正是负责任的人工智能和可信机器学习的两个关键支柱。本文对隐私和公正在机器学习中的影响进行了综述,包括有监督学习、无监督学习、半监督学习和强化学习,并提出了同时实现这两个目标时所面临的研究挑战,特别关注大规模语言模型。
Jul, 2023
本文提出了一种基于多目标强化学习的公平感知的推荐框架(MoFIR),能够以单参数表示形式学习所有可能偏好的最优推荐策略,并在多个真实推荐数据集上的实验中验证了其在公平指标和推荐度量方面的优越性。
Jan, 2022
研究了协同过滤推荐系统中存在的歧视问题,提出四个新的公平度量标准来优化目标函数以减少不公平现象。通过在合成数据和真实数据上进行实验,证明我们的新度量标准比基准更能衡量公平性,并且公平目标的确帮助减少不公平现象。
May, 2017