公平守卫者:在智慧城市中运用基于逻辑的公平规则
智慧城市的大量数据产生了巨大的浪费,因为缺乏建立在数据可用性基础上的机制和标准。为了解决此挑战,我们提出了一种半监督深度强化学习框架,利用数据的层级结构提供不同层次的知识抽象,并探索了将机器学习和高级智能纳入智慧城市服务中的研究方向。
Oct, 2018
本研究介绍了一种名为 FaRM 的机制,它是一种纳什激励机制,专注于支持基于本地活动的信息聚合,为代理人提供公平奖励,这是通过使用对抗恶意代理人的技术,衡量代理人的历史行为记录,并解决其他潜在问题来实现的。
Jun, 2019
提出一种新的方法来解决基于人工智能的交通出行需求预测中存在的公平性问题,通过在交通出行需求预测模型的损失函数中添加公平性正则项,以相应受保护属性(如种族、收入等)与预测准确度之间的相关性作为衡量指标,来同时考虑预测准确度和公平性。在芝加哥的真实骑行约车数据上进行实证分析,结果表明该方法有效地解决了预测准确性与公平性的平衡问题。
Mar, 2023
本文提出了一种新颖且可解释的预处理方法FairShap,用于通过数据估值实现公平的算法决策。FairShap基于Shapley Value框架,并通过测量每个训练数据点对预定义公平度量的贡献来实现可解释性。我们在多个不同性质、不同训练场景和模型的最新数据集上进行了实证验证,该方法在表现上优于其他方法,并产生了具有类似精度水平的显着更公平的模型。此外,我们通过直方图和潜在空间可视化说明了FairShap的可解释性,我们相信这项工作代表了算法公平性可解释、深度学习可解释性等面向的有前途的方向。
Mar, 2023
在机器学习中实现公平的系统在长期与人类互动中可能会出现旧的偏见加强甚至出现新的偏见,该研究提出了一种在实时中监测公平性的技术,通过监视长时间的系统事件来及时判断系统当前的公平性,从而建立并部署一个公平性监视器,该监视器是第三方公正的甄别器,能够监测银行的信贷政策或资源分配者的分配政策是否公平。
May, 2023
本文介绍了 FairLay-ML,一种结合了已有研究工具的图形用户界面,能够提供机器学习模型中不公平逻辑的直观解释,具有易于安装、提供实时黑盒解释和可执行的解决方案等特点。
Jul, 2023
本研究提出了一种新的基于公平性的深度学习模型,FairMobi-Net,用于区域间人流量预测,并使用美国四个城市的全面人员流动数据验证了该模型,并发现它在产生更准确和公平的人流预测方面优于现有模型。
Jul, 2023
通过调查公平机器学习文献并收集先前工作,本研究为机器学习研究者、从业者和学生绘制了探索、设计和测试面向算法公平性的管道导向方法的更全面资源集。
Sep, 2023
近年来,数据驱动的警务出现了一场革命。通过 对历史数据中的偏见如何影响算法决策进行审查。在这项探索性工作中,我们介绍了一种针对基于地点的算法巡逻管理系统的去偏倚技术。我们展示了该技术在保持模型高精度的同时有效消除了种族偏见的特征。最后,我们提供了一份潜在的未来研究清单,涵盖公平和数据驱动的警务领域。
Dec, 2023
该研究论文提出了一种面向公平性的模型无关的时空图学习框架(FairSTG),利用先进样本与挑战性样本之间的协同混合来解决不公平的时空学习中的性能异质性问题,从而提高公平性质量并保持可比较的预测准确性,并能够通过样本级的检索和补偿对空间和时间性能异质性进行抵消,从而在为欠代表的城市地区进行时空资源分配时减轻风险。
Mar, 2024