人工智能系统如何安全并与人类价值相一致是一个开放性的研究问题,本文提出有效的法律制度是解决人工智能安全性的最佳途径。
Jul, 2023
欧洲委员会提议的 AI 法案对高风险 AI 系统的风险管理和风险可接受性的方法进行了批判性评估,认为议会的最新草案在风险管理方面更具可行性,更好地平衡了比例原则和可信度。
构建与人类价值观相符的人工智能系统是当前面临的重要挑战之一。本研究提出了一个形式化模型,以明确计算地表示人类价值观,为基于人类价值观的人工智能推理提供了理论基础,并在实际应用中验证了该模型的适用性。通过这种自动推理人类价值观的能力,不仅能解决价值观一致性问题,还有助于设计支持个人和社区做出更明智、与价值观相符的决策的人工智能系统。
Feb, 2024
本研究回顾了当前法律下需要解释的情况,列出了必须考虑的技术方面,以期望提供类似于人类所需的解释的人工智能系统的研究。
Nov, 2017
人工智能的应用不仅依赖基础研究和技术发展,更需要关注其公平性、透明度和隐私问题。为了确保 AI 的合理应用,我们需要制定技术、社会、制度和法律方法和工具,提高所有人的参与度和意识,确保 AI 系统与我们社会的原则和价值观一致。
May, 2022
通过汲取法律的灵感,未来的 AI 系统需要结合一般性原则和负面人权来建立国际监管体系,为技术安全约束打下基础。
Aug, 2022
本文简明扼要地综述了人类行为量化模型领域中最重要的两个方法:基于探索和反馈学习模型或策略的技术以及直接模拟人类推理机制(思想和偏见)而无需通过试错法进行学习。
本文提出了普世人权理论作为明确价值观和准则的指导框架,阐述了其在负责任的 AI 中的有效性,并探讨了其作为民间社会伙伴关系和参与的框架的效果。
Oct, 2022
本文提供了针对 National Security Commission on Artificial Intelligence (NSCAI) 关于负责任开发和部署人工智能的主要考虑因素的建议,重点在于要将 “负责任 AI” 作为常规而不是例外,并提供了一套可操作的框架来实现这一目标。
Jan, 2021
本研究旨在建立一个 AI 理解法律标准更广泛的框架,并通过遵循法律反馈(RLLF)进行强化学习,研究表明,在使用美国法院意见标准的大型语言模式方面,AI 在理解受托义务方面的准确性可达到 78%,表明 AI 在解释不确定状态下指令方面具有一定的理解能力,并为该能力的改进奠定基础。
Jan, 2023