该研究针对保险定价中存在的公平性和歧视问题,在充分考虑多种定价因素的基础上,提出了一种全新的定价模型方法,可以有效减少多种关键定价因素带来的不公平性问题,并优化预测准确度。
Feb, 2022
机器学习在伦理学、保险定价和风险选择方面面临着人们日益关注的议题,本研究探讨了间接性歧视的风险,并提出了一种基于线性代数的创新方法来降低间接性歧视的风险,以提高保险的公平性和性能表现。
Jul, 2023
本文提出了两个有声的政策工具,即限制个性化定价的范围或比例,来平衡市场效率和公平性。我们在政策限制下调查了在利润最大化垄断下的最优定价策略,以及实施这些策略对消费者剩余、生产者剩余和社会福利的影响。通过模拟和现实数据集的实验来证明这些理论结果的正确性。这些发现和见解为数字时代日益垄断的企业的监管政策设计提供了启示。
本文研究了个性化定价中公平、福利和公平考虑的相互作用。我们对不同的规范考虑进行了分类,并提出了使用数学定义的不同目标。此外,我们还重点关注不假设价值分布的观测指标。最终,我们在两个案例中通过实证分析展示了个性化定价的潜在好处。
Dec, 2020
该研究探究了机器学习风险预测模型对于敏感特征如性别或种族歧视的问题,提出了使用 Wasserstein barycenters 减轻该问题并在实际数据上进行了验证。
Jun, 2023
为了改进对低补偿群体的风险调整公式,我们提出了一种新的公平回归方法,直接将公平考虑因素纳入目标函数,并建议使用一套度量标准来更全面地评价风险调整公式。数据应用和模拟研究表明,这些新的公平回归方法在大幅提高小组公平性(例如 98%)的同时只有少量的整体拟合度降低(例如 4%)。
Jan, 2019
应用机器学习计算健康保险产品的精准合理价格的研究,分析可解释机器学习模型如何超越精算模型的预测准确性,同时保持可解释性。
Sep, 2020
通过使用 Rawls 公正作为选择公平措施及取得平衡的基础,我们可以为 AI 系统中的公平 / 准确度取得权衡提供一个有原则的选择,从而集中关注最脆弱的群体和最有影响该群体的公平措施。
公平机器学习的早期专注是确保由算法指导的决策是公平的,三个公平定义引起了人们的关注,即反分类,分类平衡和校准,但这三个公平定义都有重大的统计局限性。相比之下,我们认为更倾向于根据最准确的风险估计对类似风险的人进行相似的处理,而不是一定要满足公平的数学定义,并强调这种方法需要大量的努力来构建适当的风险估计。
Jul, 2018
本文提出了多个基于 biometric 系统评分的统计特征的评估指标和权重策略,通过评估数据得出生物识别系统的公平性。