在复杂情景中,针对敏感因素同时影响公平和不公平决策的情境下,本文提出了采用因果学方法来消除不公平路径效应的模型,并利用深度学习和近似推理实现了一个广泛适用于复杂非线性场景的解决方案。
Feb, 2018
机器学习系统可能基于性别、性别、宗教或种族等敏感特征表现出歧视行为,因此提出了各种公平性概念和量化歧视方法,并发展了构建公平预测器的众多方法。本研究首次从因果角度分析了公平性和准确性之间的紧张关系,提出了路径特定过量损失(PSEL)的概念来衡量当强制施加因果公平性约束时预测器的损失增加程度,并证明了总过量损失(TEL)可以分解为更多本地 PSEL 值的总和。同时,强制施加因果约束通常会减少人群之间的差距。因此,我们引入了一个数量,用于总结公平性和效用之间的权衡,称为因果公平 / 效用比,定义为减少歧视与约束因果路径产生的过量损失之间的比值。最后,由于我们的方法需要具有因果约束的公平预测器,我们介绍了一种新的用于因果约束公平学习的神经方法。
May, 2024
该研究探讨了机器学习中公平性的定义和测量方法,提出了基于因果推理的非歧视标准,并开发了相应的算法。
Jun, 2017
通过引入名为 CDSAE 的创新框架,我们提出了一种有效地解决领域漂移和公平问题的方法,该方法通过同时分离环境信息、敏感属性和分类特征的嵌入表示来提高模型的泛化能力,验证结果表明,在持续领域的不断变化中,我们的方法能实现提高准确性并确保公平性的目标。
Sep, 2023
通过引入学生 - 习题二分图信息,我们提出了一种自适应语义感知图神经网络层并应用于认知诊断模型 (ASG-CD),以解决其研究中的限制,并在三个真实数据集上进行了广泛实验证明了 ASG-CD 的有效性。
Feb, 2024
本篇论文提出了一种通用的重构校正方法,可以在满足用户定义的约束条件(如公平性信息)的同时最小化敌手的猜测的更改,并解决了黑盒访问目标模型的情况下反应了培训数据敏感属性的问题。
Sep, 2022
本文提出了 Neural Cognitive Diagnosis (NeuralCD) 框架,用于智能教育中的认知诊断,分别使用传统的 Q - 矩阵和改进的文本内容来探索每个练习的概念,并包含神经网络以学习复杂的练习交互作用,从而获得准确和可解释的诊断结果。
Aug, 2019
本文提出了一种新的框架 CLAIRE,通过对反事实数据增广和不变化惩罚的表征学习框架有效地减轻了敏感属性的偏差,并在合成和真实数据集上的实验验证了 CLAIRE 在反事实公平性和预测性能方面的优越性。
Jul, 2023
本文提出了一种符号认知诊断 (SCD) 框架,该框架使用符号树来解释学生与练习之间的复杂交互过程,并利用基于梯度的优化方法有效地学习学生和练习的参数,实现了对认知诊断方法泛化性和可解释性的改进。
Dec, 2023
该研究论文探讨了即使在没有敏感特征的情况下,机器学习模型仍可能存在歧视偏见的问题,并提出了利用反事实推理揭示模型潜在偏见的方法。
Feb, 2023