AI 责任保险及 AI 助力电子诊断系统实例
阐述了人工智能和机器学习技术在改善社会的同时,由于潜在的风险和固有的特征会导致安全和基本权利受到威胁,并提出需要改进现有的责任制度以保护受害者的利益的观点。
Nov, 2022
欧盟人工智能法案是一项基于风险的前瞻性监管方法,旨在预防某些有害结果,并提倡对数据质量和人工监督进行批判性检查;我们建议将责任视为主要监管机制,并区分潜在危害的内生和外生因素,通过合理分配开发者和使用者之间的责任来减轻风险。
Nov, 2023
本文使用分层复杂系统框架对人工智能(AI)风险进行建模,并从公共和私营领域的领域专家收集调查数据以分类 AI 影响和可能性,结果显示强大的 AI 代理情景有更多不确定性,对 AI 对齐失败和影响寻求行为的关注增加以及对多智能体环境的信心增强。
Nov, 2022
该研究论文探讨了欧洲委员会关于 AI 责任的两个提案及其对欧盟 AI 相关法规的影响,提出了继续完善 AI 责任制和规范 AI 开发部署的措施,并建议为此制定详细框架和规定,以促进公平、可解释和可持续的 AI 的发展。
Nov, 2022
当前人工智能技术缺乏管理长尾风险的系统性讨论,而过多提升其智能和能力可能导致比人类更强大的系统从而带来生存威胁;本文提供了分析人工智能灾难性风险的指南包括如何在今天保持系统的安全、在未来影响人工智能系统安全的策略以及平衡安全和通用性的方法。
Jun, 2022
存在的管理高级人工智能系统风险的策略通常关注于影响开发什么样的人工智能系统以及它们如何扩散。然而,随着高级人工智能开发者数量的增加,这种方法变得越来越不可行,并且阻碍了有益的和有害的用例。我们呼吁采用一种补充方法:提高社会对高级人工智能的适应能力,即减少特定级别的人工智能能力扩散所带来的预期负面影响。我们引入了一个概念框架,用于识别避免、防范和纠正潜在有害的人工智能系统使用的适应性干预措施,并结合选举操纵、网络恐怖主义和人工智能决策者失控的示例进行说明。我们讨论了社会可以实施的适应人工智能的三个步骤循环。增强社会实施这一循环的能力将提高社会对高级人工智能的韧性。最后,我们为政府、行业和第三方提出具体建议。
May, 2024
本文讨论了人工智能在医疗领域中的应用,特别是在医学图像分析中的最新进展、现有标准以及应用人工智能所需考虑的伦理问题和最佳实践。我们探讨了人工智能的技术挑战和伦理挑战,以及在医院和公共组织中部署人工智能的影响和关键技术措施。最后,我们提出了未来解决人工智能在医疗应用中的伦理挑战的建议和方向。
Apr, 2023
介绍了通过执行全面的 AI 生命周期治理来降低人工智能风险的最佳方法,定量评估现有模型的风险可以类比于如何评估已经建造的房屋的能源效率或医生根据一系列测试评估整体患者健康状况,本文探讨了这一思路,并讨论了这种方法如何改善 AI 的监管。
Sep, 2022