以同意为负责任自主的基础
本文探讨了人工智能在伦理、决策制定等方面引发的一些问题和讨论,并重点讨论 AI 代理人中的 “自我” 认知和其在决策制定方面的作用。作者旨在提倡建立拥有更强自我认知的 AI 代理人的研究。
Jan, 2022
本文探讨了 AI 聊天机器人在改善在线知情同意书中的作用,通过与表格交互的比较,我们发现聊天机器人改善了同意书的阅读,促进参与者的代理感,并缩小了参与者与研究者之间的权力差距,并发现权力动态的改变最终可能有利于研究响应质量。
Feb, 2023
我们的研究旨在推进负责任的人工智能(AI)的概念,这是欧盟政策讨论中日益重要的主题。我们提出了一种全面且目前为止我们所知的第一个负责任 AI 的统一定义。通过结构化文献综述,我们阐明了关于负责任 AI 的当前理解,并基于该分析提出了未来以此概念为中心的框架发展方法。我们的发现支持以人为中心的负责任 AI 方法,其中包括以伦理、模型可解释性以及隐私、安全和信任为支柱的 AI 方法的实施。
Mar, 2024
介绍人工智能领域中对于开发具有自主性并与其它实体有效交互的代理人的方法,重点讨论了不同建模方法及其基础方法学和前提条件,涉及方法学和实际应用,最后阐述了未来研究的潜在课题。
Sep, 2017
本研究通过社会认知理论构建了一个特征框架,对代表人类意图、动机、自我效能和自我调节的 Agency 进行了量化和控制,并提供了一个新的数据集,评估当前对话系统中代理能力的发展和潜力。
May, 2023
人工智能的应用不仅依赖基础研究和技术发展,更需要关注其公平性、透明度和隐私问题。为了确保 AI 的合理应用,我们需要制定技术、社会、制度和法律方法和工具,提高所有人的参与度和意识,确保 AI 系统与我们社会的原则和价值观一致。
May, 2022
为了确保人工智能系统的安全性和长期代理的保留,应该将人工智能系统设计为优先考虑代理的保留而不是人类意图的一致性,并且应该在 “代理基础” 领域进行研究,以改进我们对人工智能与人类交互中代理的理解。
May, 2023