机器学习在伦理学、保险定价和风险选择方面面临着人们日益关注的议题,本研究探讨了间接性歧视的风险,并提出了一种基于线性代数的创新方法来降低间接性歧视的风险,以提高保险的公平性和性能表现。
Jul, 2023
研究提出了一个信息理论框架来设计公平的预测器,以在监督学习环境中防止对指定敏感属性的歧视。使用平等的机会作为歧视标准,这要求在实际标签的条件下,预测应独立于受保护属性。同时确保公平和泛化,将数据压缩到辅助变量,再通过贝叶斯决策规则得到最终预测器。
Jan, 2018
本文介绍一种使用多任务神经网络架构进行索赔预测的技术解决方案,该模型能够使用只有部分受保护特征信息的数据进行训练,并且生成的价格不受间接歧视影响,且其性能在有部分缺失政策持有人信息的情况下具有明显的优势。
Jul, 2022
非寿险保险中的定价策略面临着高度竞争和严格监管的框架,本研究旨在提供一套综合工具以评估其在汽车保险领域的实际应用效果。
Nov, 2023
本文介绍了一个最小二乘对抗框架,其中一个发生器生成学习个体的潜在表示,一个评论家保证了不同保护组的分布相似,从而在保留足够信息的同时解决了受保护属性引起的潜在偏差问题,为公平分类提供了理论保证。经验结果表明,这种方法可以有效地用于分类任务,特别是在删除受保护属性不足以实现公平分类的情况下。
Apr, 2019
该论文介绍了一种比较不同风险评估模型公平性的框架,特别关注与种族和性别的不平等问题,以预测再犯率和贷款为例进行实验。
Jun, 2017
公平机器学习的早期专注是确保由算法指导的决策是公平的,三个公平定义引起了人们的关注,即反分类,分类平衡和校准,但这三个公平定义都有重大的统计局限性。相比之下,我们认为更倾向于根据最准确的风险估计对类似风险的人进行相似的处理,而不是一定要满足公平的数学定义,并强调这种方法需要大量的努力来构建适当的风险估计。
Jul, 2018
提出了一个框架以减少训练数据集中不公平的代表性,其中使用两个相互操作的对手功能来提高公平性。首先,通过训练模型防止猜测受保护属性的值,同时限制效用损失,实现模型公平性优化。然后,利用对抗机器学习的规避攻击生成新的被错误分类的例子,并用于第一步模型的重新训练和改进增强模型的公平性。将这两个步骤迭代应用,直到显著提高公平性。
May, 2020
本研究提出一种新算法,可以识别和处理潜在的歧视因素,确保机器学习模型的公平性,从而提高模型性能,实现非歧视分类和回归任务。
Feb, 2020
介绍一种新的针对敏感特征的机器学习公平性框架,通过去除敏感信息和最小化敏感特征的边际贡献来改善模型的公平性。实验结果表明,该模型在公平性指标和预测性能方面均优于相关最先进方法。
Sep, 2019