Sep, 2023
没有法规就没有信任!
No Trust without regulation!
François Terrier
TL;DR机器学习在工业系统中的应用以及其安全性和合规性对于决策辅助等关键功能具有重要意义,然而,当前机器学习组件的低形式化程度和不确定性使得使用传统的关键系统工程方法难以验证和验证其安全性,因此需要制定适用于人工智能的规范和监管标准,提出可信的人工智能认证方法和工具。
Abstract
The explosion in the performance of machine learning (ML) and the potential
of its applications are strongly encouraging us to consider its use in
industrial systems, including for critical functions such as decision-making in
→
发现论文,激发创造
可信人工智能指南 -- AI 评估目录
人工智能(AI)在最近几年取得了显著进展,对经济和社会产生了重大影响。然而,仅当 AI 应用根据高质量标准开发并有效地防范新的 AI 风险时,AI 和基于其的商业模式才能充分发挥其潜力。此论文致力于解决 AI 应用可信度的问题,通过提供一个可信 AI 评估目录,旨在帮助开发人员和审计员以结构化的方式评估 AI 应用程序的可信度。
Jun, 2023
何时相信 AI: 神经网络认证的进展与挑战
人工智能正在快速发展,并已成熟用于许多应用领域,如自主系统、医学诊断和自然语言处理。本文概述了确保人工智能决策安全的技术,并讨论了未来的挑战。
Sep, 2023
风险导向的人工智能监管的风险:认真对待责任
欧盟人工智能法案是一项基于风险的前瞻性监管方法,旨在预防某些有害结果,并提倡对数据质量和人工监督进行批判性检查;我们建议将责任视为主要监管机制,并区分潜在危害的内生和外生因素,通过合理分配开发者和使用者之间的责任来减轻风险。
Nov, 2023
构建安全可靠的用于安全关键任务的视觉与语言处理的人工智能系统
AI 系统在各个领域取得了令人瞩目的成绩,然而其安全性和可靠性仍然是一个重要的关注点,特别是对于安全关键任务。本论文旨在通过进一步开发当前技术来确保安全关键任务的准确模型不确定性。
Aug, 2023
建立值得信赖的人工智能的关键:从 AI 原则,伦理,关键要求到负责任的 AI 系统和监管中去连接关系
提出了可信人工智能的七个技术要求和三个主要支柱的构建方法,并考虑到了系统整个生命周期中的所有过程和角色的可信性。同样,还介绍了通过审核过程提高人工智能系统的责任的概念,以及为了未来社会进步而必须面对的规制辩论。
May, 2023
探讨高水平人工智能的差异化风险和控制问题
本文使用分层复杂系统框架对人工智能(AI)风险进行建模,并从公共和私营领域的领域专家收集调查数据以分类 AI 影响和可能性,结果显示强大的 AI 代理情景有更多不确定性,对 AI 对齐失败和影响寻求行为的关注增加以及对多智能体环境的信心增强。
Nov, 2022