基于原则的 AI 和自主系统伦理保证论证
AI 系统的安全性是一个重要的考量,因此作者提出了一个结构化的理由框架,包含四个类别的论证,以证明 AI 系统在训练和部署过程中不太可能引发灾难,并提到控制措施的强度、即使可能造成伤害也是可信的、以及可信的 AI 顾问的权威等内容。
Mar, 2024
本文提出了将 AI 组件纳入保证案例的更全面的证明结构,以显示其已实现定量目标的能力,包括测试结果、运行时方面、范围符合性和测试数据质量的数量化考虑和讨论.
Feb, 2022
本研究介绍了在一个行业主导、政府资助的项目中建立受信任的自主系统 - Athena AI - 的案例研究,探讨了在技术开发中嵌入负责任的研究与创新对齐的伦理设计方法和原则的价值和影响。
Jun, 2022
通过探讨与保障支持因为设计而参数要求(例如安全性、安全性和可靠性)的合规性的确证缺陷检测、模式依赖以改善确证方案结构、改进现有确证方案符号以及(半)自动化确证方案生成等方面的挑战,提出了一些可能的解决方向。
Jan, 2024
该论文关注了 COMPLYING WITH THE EU AI Act 准则并开发实施 AI 系统的情况,分析了不同伦理准则的文献细节、伦理 AI 框架的适用性等问题,提出了伦理 AI 的限制以及进行可靠的 AI 开发的建议
May, 2023
通过基于塞恩和纳斯鲍姆的能力途径的框架,我们形成了一个道德概念和权益的网络,目的是让 AI 系统对利益相关者产生有意义的益处或帮助,从而提升他们推进生活计划和福祉的能力,同时维护他们的基本权利。我们表征了 AI 系统和其运作所影响的人之间道德可容许互动的两个必要条件,以及实现有意义益处理想的两个充分条件。同时,我们将这一理想与几种突出的故障模式进行对比,即构成不合理家长式主义、强制、欺骗、剥削和支配的社会互动形式。AI 在高风险领域中的事件增加凸显了这些问题的重要性,也迫使我们从一开始就采取伦理导向的方法来应对 AI 系统。
Aug, 2023
通过世界模型、安全规范和验证器的相互作用,提出了一系列保证安全的人工智能(AI)方法,旨在为 AI 系统提供高保证的量化安全保证,并描述了核心技术挑战和潜在解决方案。
May, 2024
本文对人工智能伦理学的现状进行了批判性分析,并认为基于原则性伦理准则的这种治理形式不足以规范人工智能行业及其开发者。建议通过对人工智能相关专业人员的培训过程和增加对其行业的监管来实现根本性变革。为此,建议法律应从生物伦理学中获益,并将人工智能伦理学的探索成果在法律条文中加以明确规范。
Oct, 2022