负责任的人工智能研究也需要影响声明
人工智能的应用不仅依赖基础研究和技术发展,更需要关注其公平性、透明度和隐私问题。为了确保 AI 的合理应用,我们需要制定技术、社会、制度和法律方法和工具,提高所有人的参与度和意识,确保 AI 系统与我们社会的原则和价值观一致。
May, 2022
本文通过对 2020 年 NeurIPS 会议发表的关于算法系统负面影响的声明进行定性主题分析,归纳提取出如何表达影响、影响领域和如何减轻负面影响等主题,旨在对 NeurIPS 会议更好地考虑潜在影响提出建议。
May, 2021
本文回顾了世界上最大的人工智能会议之一通过要求提交作者包含其研究对更广泛社会影响的声明的新型治理举措,探讨了此类举措的风险,挑战和潜在好处,包括改善对影响的预测和识别,更好地与政策和治理专家沟通以及加强负责任研究的规范的潜在好处;同时提出了增加透明度,改进指导,创造积极参与这一过程的激励措施,并促进公众就要求的优点和未来进行公开讨论等建议。
May, 2021
本文提供了针对 National Security Commission on Artificial Intelligence (NSCAI) 关于负责任开发和部署人工智能的主要考虑因素的建议,重点在于要将 “负责任 AI” 作为常规而不是例外,并提供了一套可操作的框架来实现这一目标。
Jan, 2021
本文介绍了开发 Socially Responsible AI Algorithms 框架的意义和方法来实现人工智能的可信赖,从而提高人类社会的福祉。
Jan, 2021
本文介绍了关于 AI 权利和其他人工实体伦理考虑的研究历史,指出了对该领域的重要学术贡献和直接研究。我们发现研究 AI 权利的研究人员通常似乎没有意识到他们自己利益所重合的同事的工作。学术界对这一主题的兴趣近年来显著增长;这反映了学术研究的更广泛趋势,但似乎某些具有影响力的出版物,逐渐普及的 AI 和机器人技术,以及相关新闻事件可能都鼓励了学术界对这一特定主题的增加兴趣。我们建议未来可以从四个方面进一步推动这一领域的发展:采用类似于最成功之前贡献者的出版策略;加强与邻近学科领域和争议的交流;创建专业期刊、会议和研究机构;更深入地探索人工实体的法律权利。
Jul, 2022
本文旨在探讨在医疗保健领域中负责任的 AI 所面临的问题、实施的解决方案以及未来的研究方向。我们针对两个实验室的工作阐述了与不确定性的医疗数据和机器建议有关的两个主题以及在线健康信息混乱问题。
Feb, 2022
该研究介绍了一个新的反馈机制:伦理和社会审查委员会 (ESR),它与研究人员合作,缓解人工智能研究带来的负面伦理和社会影响。ESR 反馈发现最常见的问题是对少数族裔群体的伤害、在研究计划中包容多元利益相关者、双重用途和数据的表征。调查和采访研究人员发现,58% 的人认为 ESR 影响了他们研究项目的设计,100% 的人愿意继续提交未来的项目,并为了推理伦理和社会问题寻求额外的支持。
Jun, 2021