FAIR:一个因果框架,用于准确推断判断反转
本文利用因果推断和解释性机器学习的最新进展,提出了一种算法无关的框架 (MIIF),用于测量、解释和改进算法决策的公平性。我们使用随机实验来测量算法偏差,从而能够同时测量不同对待、不同影响和经济价值。此外,利用现代解释性技术,我们开发了一个可解释的机器学习模型,准确解释和提炼黑盒算法的信念。总的来说,这些技术为研究算法公平性创造了一个简单而强大的工具集,特别适用于理解实际应用中公平性成本的电子商务和目标广告等领域,其中行业的 A/B 测试已经非常丰富。
Sep, 2023
本文提出了一个因果公平性分析的框架,以理解、建模和可能解决决策设置中的公平问题。研究挑战是挖掘潜在的因果机制并将各种公平度量与结构机制和人口单位归因。最后,提出了一个公平的菜谱,以评估不公平对各个人群的影响。
Jul, 2022
本文强调通过因果关系的发现步骤,适当地使用因果关系来解决公平性问题的重要性,并且通过使用合成和标准公平性基准数据集的实证分析来证实了即使微小的因果模型差异也可能对公平性 / 歧视的结论产生重大影响。
Jun, 2022
本文针对语言技术和人工智能领域的进展和应用进行研究,探讨印度视角下法律领域中所存在的公平性问题,特别关注 AI 模型中的算法偏差对于对印度教和穆斯林的关联特征的差异性的影响,并强调了在印度的法律领域中,公平性 / 偏差的研究仍有待进一步的耕耘。
Mar, 2023
本文研究法律判决预测(LJP),提出了一种基于因果知识的框架,用于引导模型从法律文本中学习潜在的因果关系,通过开放式信息提取(OIE)筛选出高比例的因果信息,并使用模型学习精炼数据的权重和原始数据,使模型具有更好的泛化性和鲁棒性。经过广泛的实验验证,该模型比基线模型更多样化且在两个常用的法律特定数据集上实现了新的 SOTA 性能。
Nov, 2022
通过采用两个神经网络,其中一个反映了因果图的结构,另一个反映了干预图的结构,该研究提出了一种改进数据集的重新加权方法,以实现因果公平性,并在实验中证明了其有效性。
Nov, 2023
本文提出了一个正式的公平概念,并利用人工数据集来展示标准神经模型在要求的泛化方面表现不佳,只有联合组合前提和假设的任务特定模型能够达到高性能,即使这些模型也不能完美解决任务。
Nov, 2019
本研究通过因果模型的视角考虑了决策系统是否基于性别、种族、宗教等方面会造成歧视的问题,引入了基于因果关系的群体公平的两个定义:FACE 和 FACT,提出了鲁宾 - 尼曼潜在结果框架来鲁棒地估算 FACE 和 FACT,并在合成数据上展示了方法的有效性。同时,作者还在真实数据集上进行了分析,发现 FACT 比 FACE 更微妙,在不同情形下可得出不同结论。
Mar, 2019
本论文提出了一种新颖的基于图的因果推理(GCI)框架,可以从事实描述中构建因果图,以帮助法律从业人员做出适当的决策,并且该框架中的因果知识可以有效地注入强大的神经网络以获得更好的性能和可解释性。
Apr, 2021