软件专业人员对算法种族主义的观点
本文探讨算法公平框架中如何采纳种族和种族范畴,认为目前的方法未能充分考虑种族的社会构造性质,指出需要理解种族具有的多维性、关注种族不平等的社会过程,并关注最受社会技术系统影响的人的观点。
Dec, 2019
本文呈现了通过定量和模拟建模分析使用系统动力学了解人工智能种族偏见和对健康不平等影响的结果和见解,并强调将数据和医疗保健讨论集中于人们及其医疗和科学体验,以及认识算法操作的社会背景的重要性,社区创伤的集体记忆是寻求治疗和体验有效治疗的内生驱动因素,这些因素对不同种族群体的初值条件具有明显的不平等性。
May, 2023
应用研究论文探讨了人工智能加剧或减轻种族系统性不公对社会的影响。研究从识别、分析和辩论系统性问题的各个主题入手,调查了算法自动化处理种族敏感环境中的人类决策的优缺点。通过分析历史系统化模式、隐性偏见、现有算法风险和法律后果,指出基于自然语言处理的人工智能(如风险评估工具)存在种族不平等问题。论文得出结论:需要更多诉讼政策来规范和限制政府机构和企业如何利用算法,隐私和安全风险,审计要求,以避免过去的不公正结局和做法。
Jan, 2022
在人工智能和算法公平性的文献中,种族多样性已成为越来越受关注的议题,然而鲜有关注对种族类别的选择进行合理化解释以及如何让人们置于这些选取的种族类别中。更少的关注度放在种族类别如何转变以及种族化过程如何随着数据集或模型的背景而改变。对于选取种族类别中包含的人群和他们如何置于这些类别中的不清楚理解,可能会导致对这些类别的不同解读。当真实的种族化过程和使用的种族类别的理解与实际不符时,这些不同的解读可能会引发伤害。如果种族化过程和使用的种族类别在所应用的背景中无关或不存在,也可能引发伤害。在本文中,我们进行了两方面的贡献。首先,我们演示了不明确假设和不合理解释的种族类别如何导致各种数据集的多样性,这些数据集无法很好地代表被这些种族类别混淆或未被代表的群体,以及如何导致模型在这些群体上表现不佳。其次,我们开发了一个框架 CIRCSheets,用于记录选择种族类别和进行种族化过程的假设,以促进理解数据集或模型开发者在选择或使用这些种族类别时所做的过程和假设的透明度。
Apr, 2024
AI/NLP models trained on racially biased datasets demonstrate various types of bias, raising profound ethical implications regarding the impact of these models on user experience and decision-making due to the presence of racial bias features in datasets. The research implicates a negative influence on users' persuasiveness due to unexplainable discriminatory outcomes, calling for responsible AI frameworks within organizations.
Jan, 2022
本文介绍了黑色女性主义在消除算法压迫中的重要作用,并借鉴女性主义哲学对科技的批评,探讨了历史上针对边缘化群体的科技压迫,并讨论了应将多样性作为解决算法暴力的方案的含义,最终提出建议,通过消除压迫系统和改变算法开发实践,包括参与社区科学进程、以边缘化社区为中心进行设计以及明确数据和算法实践。
Jan, 2021
本文提倡将多样性作为核心优先事项,以实现算法公平所追求的不歧视和公正目标,并为计算机科学的从业人员提供具体的多样性措施建议,以增加多样性,并提高算法公平的实践水平。
Feb, 2020
多领域调查为从业人员和研究者提供一个均衡和综合的覆盖,涵盖算法招聘、偏见、度量、缓解策略、数据集和法律方面,旨在支持对这项技术的情境化理解与治理,并提供未来工作的建议,以确保所有利益相关方共享利益。
Sep, 2023
算法在我们的社会生活中扮演着越来越重要的角色。然而,它们经常在这个过程中持续制造社会不公正。当前解决这些算法不公正问题的方式主要是通过算法改革主义:对算法本身进行微调,使其更加公平、负责任和透明。然而,最新兴的关于关键算法研究的学说表明,这种改革主义的方法无法遏制算法不公正,因为它们忽视了围绕算法的权力结构。本文通过采用 Erik Olin Wright 提出的框架来分析围绕算法活动的权力配置,包括算法如何进行研究、开发、训练和部署等方面。笔者认为,算法活动不公正、不民主和不可持续的原因在于塑造它的权力结构是一种经济赋权而非社会赋权。为了使算法活动变得社会公正,我们需要转变这种权力配置,使算法的影响另一端的人能够获得赋权。为此,作者探讨了 Wright 所提出的联生、间质和裂变转型理论在算法活动背景下的应用,以及它们在利用算法解决社会问题的假设性研究项目中可能的应用。文章以对社会公正的算法活动的展望作结,要求未来的研究努力将提出的转型理论整合起来,并发展新的社会赋权机制。
May, 2024