在实施负责任的人工智能中解决伦理平衡
本文讨论了负责任的人工智能伦理原则的多个方面,并提出了 10 个值得关注的潜在矛盾、权衡和其他交互作用。通过综述文献资料,重点分析了双向交互作用,并提供了一份有助于设计人员和开发人员了解伦理原则各方面相互关系的指南。
Apr, 2023
本文探讨公平和道德人工智能的方法,引入了一组三部分的决策工具包,涉及公正 AI / ML 的相关问题,并主张采用特定的推理和创造性的方法去解决负责任的算法 / 数据驱动系统面临的各种问题。
Mar, 2023
人工智能的应用不仅依赖基础研究和技术发展,更需要关注其公平性、透明度和隐私问题。为了确保 AI 的合理应用,我们需要制定技术、社会、制度和法律方法和工具,提高所有人的参与度和意识,确保 AI 系统与我们社会的原则和价值观一致。
May, 2022
研究表明,围绕着五个伦理原则(透明度、正义与公平、非恶意行为、责任和隐私),出现了全球一致性的道德人工智能共识,提出了相关的指导原则和技术标准,同时应该充分融合伦理分析和实施策略的努力。
Jun, 2019
提出了可信人工智能的七个技术要求和三个主要支柱的构建方法,并考虑到了系统整个生命周期中的所有过程和角色的可信性。同样,还介绍了通过审核过程提高人工智能系统的责任的概念,以及为了未来社会进步而必须面对的规制辩论。
May, 2023
AI 伦理是学术和政策圈子中一个全球性的讨论话题,近期 meta 分析表明, AI 伦理已经收敛于一组与医学伦理四项经典原则非常相似的原则,但是这种原则取向在 AI 的发展和治理方面可能不会像医学那样成功,因为它们之间存在四个显著的不同点。
Jun, 2019
讨论建立和推广符合伦理 AI 的实践中存在的实际挑战,包括监管压力、冲突商业目标、数据质量、开发过程、系统集成实践和规模问题,认为要考虑 AI 系统的全面运营上下文,才能有效应对这些伦理风险。
Aug, 2021
简要介绍了几个提供负责人工智能应用程序的框架,发现大多数框架仅适用于需求调查阶段,仅有一些私人公司提供了支持工具。结果表明,还缺乏一个全面的框架,该框架包含所有负责人工智能的原则和所有 SDLC 阶段,并可由不同技能集和不同目标的用户浏览。
Jun, 2023