负责任的人工智能研究也需要影响声明
本文研究了科学研究机构在负责人工智能设计和开发中的道德风险意识和准备情况,揭示了知识缺口和对可用人工智能伦理框架的意识有限。我们的研究结果显示,在没有适当的指导和管理下实施人工智能技术可能会带来潜在的道德风险,因此需要全面的策略来提高团队能力,支持负责、道德和包容的人工智能开发和部署。
Dec, 2023
人工智能的应用不仅依赖基础研究和技术发展,更需要关注其公平性、透明度和隐私问题。为了确保 AI 的合理应用,我们需要制定技术、社会、制度和法律方法和工具,提高所有人的参与度和意识,确保 AI 系统与我们社会的原则和价值观一致。
May, 2022
本文通过对 2020 年 NeurIPS 会议发表的关于算法系统负面影响的声明进行定性主题分析,归纳提取出如何表达影响、影响领域和如何减轻负面影响等主题,旨在对 NeurIPS 会议更好地考虑潜在影响提出建议。
May, 2021
简要介绍了几个提供负责人工智能应用程序的框架,发现大多数框架仅适用于需求调查阶段,仅有一些私人公司提供了支持工具。结果表明,还缺乏一个全面的框架,该框架包含所有负责人工智能的原则和所有 SDLC 阶段,并可由不同技能集和不同目标的用户浏览。
Jun, 2023
我们的研究旨在推进负责任的人工智能(AI)的概念,这是欧盟政策讨论中日益重要的主题。我们提出了一种全面且目前为止我们所知的第一个负责任 AI 的统一定义。通过结构化文献综述,我们阐明了关于负责任 AI 的当前理解,并基于该分析提出了未来以此概念为中心的框架发展方法。我们的发现支持以人为中心的负责任 AI 方法,其中包括以伦理、模型可解释性以及隐私、安全和信任为支柱的 AI 方法的实施。
Mar, 2024
本文回顾了世界上最大的人工智能会议之一通过要求提交作者包含其研究对更广泛社会影响的声明的新型治理举措,探讨了此类举措的风险,挑战和潜在好处,包括改善对影响的预测和识别,更好地与政策和治理专家沟通以及加强负责任研究的规范的潜在好处;同时提出了增加透明度,改进指导,创造积极参与这一过程的激励措施,并促进公众就要求的优点和未来进行公开讨论等建议。
May, 2021
本文提供了针对 National Security Commission on Artificial Intelligence (NSCAI) 关于负责任开发和部署人工智能的主要考虑因素的建议,重点在于要将 “负责任 AI” 作为常规而不是例外,并提供了一套可操作的框架来实现这一目标。
Jan, 2021
本文介绍了开发 Socially Responsible AI Algorithms 框架的意义和方法来实现人工智能的可信赖,从而提高人类社会的福祉。
Jan, 2021
本文介绍了关于 AI 权利和其他人工实体伦理考虑的研究历史,指出了对该领域的重要学术贡献和直接研究。我们发现研究 AI 权利的研究人员通常似乎没有意识到他们自己利益所重合的同事的工作。学术界对这一主题的兴趣近年来显著增长;这反映了学术研究的更广泛趋势,但似乎某些具有影响力的出版物,逐渐普及的 AI 和机器人技术,以及相关新闻事件可能都鼓励了学术界对这一特定主题的增加兴趣。我们建议未来可以从四个方面进一步推动这一领域的发展:采用类似于最成功之前贡献者的出版策略;加强与邻近学科领域和争议的交流;创建专业期刊、会议和研究机构;更深入地探索人工实体的法律权利。
Jul, 2022
本文旨在探讨在医疗保健领域中负责任的 AI 所面临的问题、实施的解决方案以及未来的研究方向。我们针对两个实验室的工作阐述了与不确定性的医疗数据和机器建议有关的两个主题以及在线健康信息混乱问题。
Feb, 2022