AI 与无障碍:道德考虑的讨论
使用 AI 技术改善残障人士(PWD)的生活具有巨大潜力,但是如果没有考虑到公平性,这些技术可能会导致针对残障人士的不良影响。该研究通过风险评估和未来的研究路线图来探讨 AI 与残障人士之间的相互作用,以建立更公平、更包容性的算法。
Jul, 2019
本文探讨了人工智能及机器学习方法的广泛运用如何影响残障人士在社会中获得公正待遇的问题,对比年龄、性别或种族等受保护的特征,阐述了公正对于残障人士来说有着特殊的意义和挑战,提出在人工智能应用中为残障人士建立公平机制的建议。
Nov, 2018
本文通过分析三种不同的残疾人历史模型,探讨设计决策在人工智能决策辅助中的潜在偏差,并指出缺乏透明度和残疾人参与加剧了这些偏差的危害性。我们建议以残疾人为导向的设计和参与式开发,以生产更加公平和平等的残疾相关人工智能技术,提出了关键问题。
Jun, 2022
人工智能的普遍存在和多样性需要在其设计中考虑到公平、信任和透明性的多样性和包容性原则,然而,这些考虑往往被忽视,导致偏见、歧视和不可信任的问题。本研究通过系统回顾挖掘了与人工智能中的多样性和包容性相关的挑战和解决方案,研究结果包括 55 个关于多样性和包容性的独特挑战和 33 个解决方案,以及 24 个关于使用人工智能来增强这些实践的独特挑战和 23 个解决方案。该研究将帮助研究人员和从业者更好地理解这些问题,并在未来的人工智能系统中融入这些原则。
Jul, 2023
人工智能创新主要关注 “what” 和 “how” 问题,忽视可能的危害与社会背景,导致了潜在的社会技术问题,因此我们需要计算机科学和社会学科之间更紧密的联系。
Dec, 2020
人工智能在改善医疗服务和患者结局方面变得至关重要,但其发展和使用引发了众多伦理、法律和社会经济问题,其中正义是一个主要关注点,该论文讨论了与之相关的团结性、公共利益、可持续性、人工智能偏见和公平性等概念,为非洲地区公平发展人工智能医疗提出了特定背景下的考虑。
Jun, 2024
人工智能从实验室科学转变为实际人类环境,引发了许多历史、社会文化的偏见、不平等和道德困境。人工智能教育(AIED)提出了更多特定的挑战,涉及技术对用户的影响,这些技术如何用于加强或改变我们学习和教学的方式,以及作为社会和个体,我们对教育结果的价值观。该文章讨论了人工智能的关键伦理维度,并将其置于 AIED 设计和工程实践中,以建立我们所构建的 AIED 系统、我们提出的有关人类学习和发展的问题、我们使用的教学伦理以及我们通过 AIED 在更广泛的社会技术系统中提倡的价值观之间的联系。
Mar, 2024