推荐系统中可解释的公平性
本文提出了一个通过对抗学习生成独立于特征的用户嵌入来实现反事实公平的框架,从而使推荐系统能够为用户实现个性化的公平性。实验表明,该方法可以为用户生成更加公正且具有良好推荐效果的推荐结果。
May, 2021
通过解释的方式,我们提出了基于过程的公正度并识别了过程相关偏见,并通过优化目标设计了一种综合公正度算法,以在提高传统公正度、满足解释公正度和维护实用性能之间达到多重目标的平衡。
Dec, 2022
本文提出 Counterfactual Explainable Recommendation(CountER)模型,并利用因果推理的洞见进行解释,通过联合优化来生成新的最小更改使得机器推荐相反的物品,以便形成推荐的原因解释,具有更高的解释质量。
Aug, 2021
研究人员探讨了 AI 系统推荐错误或不公平的情况下,人工干预的必要性,并提供了关于解释、公平感知、依赖和分布公平性之间关系的理论框架,但文献并没有提供确凿证据证明解释在实践中实现了这种补充关系。
Apr, 2022
算法公平性和可解释性是实现负责任人工智能的基本要素。本文关注它们之间的相互关系,即最近受到越来越多关注的研究领域。我们首先提出了两种综合分类法,分别代表了公平性和解释两个互补的研究领域。然后,我们将用于公平性的解释分为三种类型:(a)用于增强公平指标的解释,(b)用于帮助我们理解(不公平)原因的解释,以及(c)用于辅助我们设计缓解不公平性方法的解释。最后,基于我们的公平性和解释分类法,我们提供了未曾涉足的文献路径,揭示了可以作为未来研究宝贵见解的空白领域。
Feb, 2024
本文分析了不同活跃度用户的推荐性能,发现不同群体之间存在偏差,特别是不活跃用户会更容易受到不公平的对待。为了减少不公平现象,提出了通过启发式重新排序的公平性约束方法,实验结果表明该方法能提供高质量的可解释推荐,并降低了几个方面的推荐不公平性。
Jun, 2020
研究了基于 AI 解释和分布式公平性之间的关系,发现解释会影响公平感知,从而与人类对 AI 建议的依赖关系发生关联。该研究表明,基于特征的解释并不是改善分布式公正性的可靠机制。
Sep, 2022