基于人权的负责任人工智能方法
通过社会科学根植的正式概念框架,系统、集成和跨学科地探究人类价值如何支持设计道德人工智能,从而解决价值对齐问题和其他相关的挑战,如人工智能学习人类价值观、将个人价值观聚合到群体中和设计计算机机制来处理价值观。
May, 2023
我们认为社区旨在减轻技术的潜在危害影响,通过定义公私保密、公平和透明模型等一些责任支柱作为指标是根本错误的,因为这些定义是人类价值的不完美、独立构建,而带着那些价值完全嵌入我们的技术的幌子。我们推动 AI 社区重新考虑某些支柱公式的选择带来的所有后果,而不仅仅是技术上的不兼容性,而是在部署背景下的影响。我们指出社会技术研究可以为后者提供框架,但还应推动更广泛的实践落地。
Dec, 2022
该研究构建了一个人权、民主和法治保障框架 (HUDERAF),以支持一项基于欧洲理事会人权、民主和法治标准的人工智能法律框架,该框架包括上下文风险分析、透明的风险管理和技术和社会技术安全保障机制,并且可以提高 AI 创新实践的公共问责、透明度和民主治理水平。
Feb, 2022
本文通过主题式地回顾和分析了 27 篇 CHI 研究论文和 19 个工具包,提出了对人本 AI (HCR-AI) 研究现状的基础性映射,结果显示当前 HCR-AI 研究热点为可解释性、公平性、隐私和安全等方面,同时指出应开展 AI 问责性的研究,并为非专业人员构建一种可用工具问责 AI,以解决 AI 对个人、社会和自然资源(人类繁荣和可持续性)的长期影响问题。
Feb, 2023
研究表明 AI 从业者与普通公众的价值观有所不同,自认为女性和黑人的被调查者对负责任的人工智能价值观更看重公平,自我认知为自由主义者的被调查者更倾向于将公平置于优先地位。
May, 2022
本文研究了科学研究机构在负责人工智能设计和开发中的道德风险意识和准备情况,揭示了知识缺口和对可用人工智能伦理框架的意识有限。我们的研究结果显示,在没有适当的指导和管理下实施人工智能技术可能会带来潜在的道德风险,因此需要全面的策略来提高团队能力,支持负责、道德和包容的人工智能开发和部署。
Dec, 2023
人工智能的应用不仅依赖基础研究和技术发展,更需要关注其公平性、透明度和隐私问题。为了确保 AI 的合理应用,我们需要制定技术、社会、制度和法律方法和工具,提高所有人的参与度和意识,确保 AI 系统与我们社会的原则和价值观一致。
May, 2022
本文介绍了关于 AI 权利和其他人工实体伦理考虑的研究历史,指出了对该领域的重要学术贡献和直接研究。我们发现研究 AI 权利的研究人员通常似乎没有意识到他们自己利益所重合的同事的工作。学术界对这一主题的兴趣近年来显著增长;这反映了学术研究的更广泛趋势,但似乎某些具有影响力的出版物,逐渐普及的 AI 和机器人技术,以及相关新闻事件可能都鼓励了学术界对这一特定主题的增加兴趣。我们建议未来可以从四个方面进一步推动这一领域的发展:采用类似于最成功之前贡献者的出版策略;加强与邻近学科领域和争议的交流;创建专业期刊、会议和研究机构;更深入地探索人工实体的法律权利。
Jul, 2022