AI 社区中对抗反黑色主义
本文探讨了认知建模如何帮助我们思考种族歧视对人工智能系统设计与开发的影响,其中使用了 ACT-R/Φ 认知架构和现有知识图谱系统 ConceptNet 来考虑这个问题。同时,文章还介绍了种族歧视、人类和计算认知建模之间的关系,呼吁在认知建模中考虑社会文化的过程和知识结构,以便更好地应对认知处理中的社会文化背景。
Jul, 2022
人工智能的普遍存在和多样性需要在其设计中考虑到公平、信任和透明性的多样性和包容性原则,然而,这些考虑往往被忽视,导致偏见、歧视和不可信任的问题。本研究通过系统回顾挖掘了与人工智能中的多样性和包容性相关的挑战和解决方案,研究结果包括 55 个关于多样性和包容性的独特挑战和 33 个解决方案,以及 24 个关于使用人工智能来增强这些实践的独特挑战和 23 个解决方案。该研究将帮助研究人员和从业者更好地理解这些问题,并在未来的人工智能系统中融入这些原则。
Jul, 2023
应用研究论文探讨了人工智能加剧或减轻种族系统性不公对社会的影响。研究从识别、分析和辩论系统性问题的各个主题入手,调查了算法自动化处理种族敏感环境中的人类决策的优缺点。通过分析历史系统化模式、隐性偏见、现有算法风险和法律后果,指出基于自然语言处理的人工智能(如风险评估工具)存在种族不平等问题。论文得出结论:需要更多诉讼政策来规范和限制政府机构和企业如何利用算法,隐私和安全风险,审计要求,以避免过去的不公正结局和做法。
Jan, 2022
本研究调查了资本主义、种族压迫和人工智能之间复杂的联系,揭示了这些元素如何共同作用来加深社会不平等。通过追溯资本主义实践对边缘化社区的历史剥削,本研究表明人工智能技术不仅反映了社会偏见,而且放大了这种偏见,特别是在加剧种族差异方面。通过针对性的分析,本文介绍了人工智能发展和应用如何通过诸如零工经济的劳工滥用、有偏见的面部识别技术以及给这些社区带来不成比例的心理健康负担等机制来剥削边缘化群体。这些例子突显了人工智能在加强和加剧现有不平等方面的关键作用。文章得出的结论是,不受监管的人工智能严重威胁到现有压迫的累加,呼吁共同努力实现负责任的人工智能发展。这需要采取一种整体性的方法,修正系统缺陷,倡导边缘化个体的赋权,确保技术进步有助于社会的愈合,而不是延续剥削循环。
Mar, 2024
本文呈现了通过定量和模拟建模分析使用系统动力学了解人工智能种族偏见和对健康不平等影响的结果和见解,并强调将数据和医疗保健讨论集中于人们及其医疗和科学体验,以及认识算法操作的社会背景的重要性,社区创伤的集体记忆是寻求治疗和体验有效治疗的内生驱动因素,这些因素对不同种族群体的初值条件具有明显的不平等性。
May, 2023
本文介绍了黑色女性主义在消除算法压迫中的重要作用,并借鉴女性主义哲学对科技的批评,探讨了历史上针对边缘化群体的科技压迫,并讨论了应将多样性作为解决算法暴力的方案的含义,最终提出建议,通过消除压迫系统和改变算法开发实践,包括参与社区科学进程、以边缘化社区为中心进行设计以及明确数据和算法实践。
Jan, 2021
本文提倡将多样性作为核心优先事项,以实现算法公平所追求的不歧视和公正目标,并为计算机科学的从业人员提供具体的多样性措施建议,以增加多样性,并提高算法公平的实践水平。
Feb, 2020
人工智能社区(AI)最近参与了与其雇主、社区其他成员和政府相关的活动,以塑造 AI 的社会和伦理影响,已取得了一些显著的成功,但 AI 社区未来政治组织和行动的前景不确定,该论文调查了过去六年 AI 社区的活动,并运用两个分析框架,研究其对于 AI 社区未来前景的影响结果表明,迄今的成功取决于一个统一的共享文化和高谈判能力,这两者对未来的 AI 活动至关重要。
Jan, 2020
本研究提出了一种利用生成人工智能 (GenAI) 进行基于角色的模拟的工具的框架愿景,旨在促进需求分析过程中对多样化用户需求的表示,从而为人工智能软件的开发过程提供详细的用户叙述,以发展一种包容性的人工智能范式,确保未来的技术进步符合多样人类群体的需求。
Dec, 2023