朝着去殖民化计算科学的方向
本文提倡将多样性作为核心优先事项,以实现算法公平所追求的不歧视和公正目标,并为计算机科学的从业人员提供具体的多样性措施建议,以增加多样性,并提高算法公平的实践水平。
Feb, 2020
通过在其技术实践中嵌入去殖民化的批判方法,人工智能社区可以制定前瞻性和策略,将研究和技术开发更好地对齐已确立的伦理原则,关注仍然承受创新和科学进步消极影响的弱势群体,以及创建批判的技术实践、寻求反向指导和反向教育以及恢复情感和政治社群的行动等三个方面可以形成人工智能去殖民化领域的策略。
Jul, 2020
我们提出了一项以任务为导向的知识检索研究议程,利用计算模型和人工智能技术,摄取科学知识的典籍,检索灵感、解释、解决方案和证据,直接增强人类在科学领域突出任务上的表现,进而革命性地推动科学进程。
May, 2022
通过识别认知科学中计算推理的计算方法、数据驱动时代的操作挑战、社会影响和道德准则等方面,平衡潜在的乐观情绪,探索在更实证的视角下进行推理的可行性和可行性,以更多样化和丰富的方法解释研究结果。
Oct, 2022
本文评估并比较了来自哲学、女性主义研究、批判性种族和民族研究、法律研究、人类学和科学技术研究等非计算学科的现有批评,旨在提供 ML 公正技术干预的跨学科理解,以此产生社会上最边缘化群体的公正结果,最后讨论了基于这些批评的未来 ML 公正研究方向。
May, 2022
本文介绍了黑色女性主义在消除算法压迫中的重要作用,并借鉴女性主义哲学对科技的批评,探讨了历史上针对边缘化群体的科技压迫,并讨论了应将多样性作为解决算法暴力的方案的含义,最终提出建议,通过消除压迫系统和改变算法开发实践,包括参与社区科学进程、以边缘化社区为中心进行设计以及明确数据和算法实践。
Jan, 2021
基础模型对推进人工智能具有巨大的潜力,但这种进展可能加剧现有的风险和不平等,导致边缘化社群被落下。我们在本立场论文中讨论,针对边缘化社群的差距 - 性能、表示、隐私、鲁棒性、可解释性和安全性 - 不是孤立的关注点,而是级联差距现象的相互关联元素。我们对比传统模型与基础模型,并强调边缘化社群面临的差距可能会加剧。此外,我们强调了基础模型中级联影响的独特威胁,相互关联的差异可能引发持久的负面影响,特别是对边缘社群的人们。我们在机器学习的背景下定义了边缘化社群,并探讨了差异的多方面性质。我们分析了这些差异的来源,从数据创建、训练和部署过程追溯,以凸显复杂的技术和社会技术环境。为了应对迫在眉睫的危机,我们总结了一系列行动呼吁,以从源头上减少差距。
Jun, 2024
该论文针对机器学习中的偏见问题,提出了 “权力感知视角” 的研究并分析数据质量、数据工作和数据文献等领域的因素,以反映数据设计和生产的社会背景。
Sep, 2021
研究了机器学习数据集背后的历史、价值观和规范,以及影响数据收集选择的价值观,并描述了机器学习中基准数据集的运作方式和为这些数据集提出的四个研究问题,从而更好地了解数据构建中的劳动,为研究人员提供新的争论途径。
Jul, 2020