为社会责任 AI 建立因果关系学习
本文介绍了开发 Socially Responsible AI Algorithms 框架的意义和方法来实现人工智能的可信赖,从而提高人类社会的福祉。
Jan, 2021
本文研究了科学研究机构在负责人工智能设计和开发中的道德风险意识和准备情况,揭示了知识缺口和对可用人工智能伦理框架的意识有限。我们的研究结果显示,在没有适当的指导和管理下实施人工智能技术可能会带来潜在的道德风险,因此需要全面的策略来提高团队能力,支持负责、道德和包容的人工智能开发和部署。
Dec, 2023
人工智能的应用不仅依赖基础研究和技术发展,更需要关注其公平性、透明度和隐私问题。为了确保 AI 的合理应用,我们需要制定技术、社会、制度和法律方法和工具,提高所有人的参与度和意识,确保 AI 系统与我们社会的原则和价值观一致。
May, 2022
人工智能是一个有潜力革命化从医疗保健到金融等领域的技术,但需要负责任地开发和部署。这篇研究论文探讨了负责任人工智能和可解释人工智能的关系,并发现可解释人工智能在确保公平性、透明度等方面对负责任人工智能是至关重要的。
Dec, 2023
通过对于不确定性集合的极小 - 极大问题进行研究,我们提供了一个被称为负责任人工智能(RAI)游戏的通用框架,并给出了两类算法来解决这些问题:基于游戏的算法和贪婪分阶段估计算法。我们通过实证方法证明了我们的技术在解决几个 RAI 问题,特别是在子群体转变方面的适用性和竞争性表现。
Oct, 2023
该研究阐述了建立和理解人工智能系统的基本思想:从符号方法到统计学习,再到基于因果关系概念的干预模型,其中一些机器学习和人工智能的难题内在地与因果关系有关,而进展可能需要我们加深对如何从数据中建模和推断因果关系的理解。
Apr, 2022
本文提供了针对 National Security Commission on Artificial Intelligence (NSCAI) 关于负责任开发和部署人工智能的主要考虑因素的建议,重点在于要将 “负责任 AI” 作为常规而不是例外,并提供了一套可操作的框架来实现这一目标。
Jan, 2021
我们的研究旨在推进负责任的人工智能(AI)的概念,这是欧盟政策讨论中日益重要的主题。我们提出了一种全面且目前为止我们所知的第一个负责任 AI 的统一定义。通过结构化文献综述,我们阐明了关于负责任 AI 的当前理解,并基于该分析提出了未来以此概念为中心的框架发展方法。我们的发现支持以人为中心的负责任 AI 方法,其中包括以伦理、模型可解释性以及隐私、安全和信任为支柱的 AI 方法的实施。
Mar, 2024
我们介绍了一个使用可解释的人工智能(XAI)的智能系统(CL-XAI)用于认知学习的研究,其两个主要目标是探索人类学习者如何理解使用 XAI 工具的人工智能模型的内部机制,并通过人类反馈评估这些工具的有效性。使用 CL-XAI 在一个基于游戏的虚拟案例中说明了其应用,学习者通过解决组合问题来增强解决问题的能力和加深对复杂概念的理解,突出了认知学习和协同学习中潜在的转变性进展。
Dec, 2023
本文着眼于 AI 的可持续性发展问题,分析了解决该问题的机器学习方法和算法,并提出对可持续 AI 技术研究的挑战和发展方向的建议。
May, 2022