Aug, 2023

信用中的公平模型:交叉歧视与不公平加剧

TL;DR使用机器学习在信用建模中的新数据来源引发了涉及受保护特征(例如种族、性别、年龄)或其他社会经济与人口统计数据的不公平决策的担忧。本文通过微金融背景展示了此类算法偏见的影响,并综合干预性的视角研究了以性别、年龄、婚姻状况、单亲状态和子女数量为定义的不同群体之间的信用分配不公平问题。我们发现在多元社会中应用自动化决策系统时,交叉性别、年龄和家庭状况的身份会影响信用分配模式,而机器学习技术对社会公平与不公平视而不见。因此,更全面地考虑交叉身份可以增强算法公平性的视角,更真实地推动平等结果,并提供更公正的前进路径。同时,我们发现除了受法律保护的特征外,像单亲状态和子女数量这样的敏感属性也可能导致不平衡的伤害。本研究对金融服务行业的影响进行了讨论。