- 基于地点的算法巡逻管理的去偏技术
近年来,数据驱动的警务出现了一场革命。通过 对历史数据中的偏见如何影响算法决策进行审查。在这项探索性工作中,我们介绍了一种针对基于地点的算法巡逻管理系统的去偏倚技术。我们展示了该技术在保持模型高精度的同时有效消除了种族偏见的特征。最后,我们 - 使用多元宇宙分析评估模型设计决策对算法公平性的影响
通过多元宇宙分析方法将隐含的设计决策转化为明确的决策,并展示其公平性影响。研究结果展示了机器学习系统设计中的决策如何对公平性产生意想不到的影响,并展示了如何使用多元宇宙分析来检测这些影响。
- 关于弥合解释权和被遗忘权之间差距的探讨
研究了算法决策及数据使用的解释权和被遗忘权,并提出了解决两种权利的冲突的算法框架,该框架可以生成对于数据删除请求具有鲁棒性的解释,生成的解释可针对线性模型和某些非线性模型进行最坏情况下的数据删除请求保护,经实际数据集实验表明该框架的有效性。
- 具有分步公平约束的强化学习
介绍了在社会重要领域中使用人工智能算法进行算法决策的公平性问题,并介绍了强调每个时间步骤群体公平性的强化学习框架和学习算法。
- 通过正则化解开私有类
本篇论文提出 DisP 方法,用于深度学习模型中隐私信息保护,通过去相关策略对同一个类别的特征解耦以保护隐私,实验证明其有效性。
- 算法审核、算法与法律
本文着重讨论两种标准的黑盒算法审计形式:第一种审计形式(命名为 Bobby 审计形式)检查算法的谓词,而第二种审计形式(Sherlock)则更松散地进行多项调查,为结构化黑盒算法审计领域与法律的关系提供了关键见解
- FairALM: 用增广 Lagrangian 方法训练公平模型,减少悔恨
本文研究了使用公平性度量来指导模型的设计和训练的机制,提出了一种简单但可靠的方法,即在训练模型时同时实现公平,并通过详细的技术分析和实验验证了在计算机视觉训练任务中可靠地实现各种公平性度量。
- 算法决策中个体理性投资的不一致平衡
研究算法决策对长期影响的动态学习设置,通过对决策规则和个人投资之间的互动进行建模,表明通过分组复制规则和投资成本补贴两种干预措施可实现更好的长期结果,但前提是要考虑到组内异质性以及可实现性的影响。
- 多阶段选择中本地公平的代价
该论文研究了在多阶段决策中,如何定义并保证公平性问题,提出了局部公平和全局公平的概念,并通过线性规划计算最大化精度的局部公平和全局公平选择。此外,还定义了局部公平的代价来衡量因遵循局部公平而导致的精度损失。
- 深度学习的 HARK 面 -- 从研究生下降到自动化机器学习
本文探讨了机器学习研究中存在的反复假设问题、负面结果的报道和算法的泛化能力。此外,从算法决策的责任、公正、道德和隐私保护的角度讨论了机器学习研究和发展的前景。
- MM公平且无偏的算法决策制定:现状与未来挑战
机器学习算法应用于如信贷贷款或刑法司法等关乎人类生活方面的情境,其所基于的数据若含有人类偏见决策,则会产生人类偏见决策,拥有公平观念的机器学习是一种解决方案,但是如何实现公平面临着 “多维面” 等难题,要想在不同领域实现公平、公正,算法必须 - iFair: 学习个体公平数据表示方法用于算法决策
本文提出了一种基于概率映射用户记录的方法,用于实现算法决策应用的个体公平性和真实应用环境下的分类器和排名等工具的效用性,并通过应用于现实世界数据集的分类和学习排序任务的实验表明了其比之前最佳方法有显著改善。
- WWW算法决策中人类对公平性的感知研究:刑事风险预测案例研究
该研究调查用户对算法决策公平性的看法,并提出了一个框架来了解人们如何认识和判断决策算法的公平性。他们通过与 576 人的一系列情境调查,验证了这一框架,并发现人们关注的不公平问题是多方面的。在高层次上,该研究显示人们的不公平关注是多维度的, - MM大数据、数据科学与公民权利
数据分析和算法决策越来越影响我们生活的各个方面,因此有必要确保它们不成为歧视,不公平,社会正义和不公平源泉的工具。本文提出了一个明确的研究议程,旨在解决这些问题。重点包括:确定模型是否存在偏见,将公平意识纳入机器学习方法中,提高数据驱动和模