构建安全可靠的用于安全关键任务的视觉与语言处理的人工智能系统
机器学习在工业系统中的应用以及其安全性和合规性对于决策辅助等关键功能具有重要意义,然而,当前机器学习组件的低形式化程度和不确定性使得使用传统的关键系统工程方法难以验证和验证其安全性,因此需要制定适用于人工智能的规范和监管标准,提出可信的人工智能认证方法和工具。
Sep, 2023
通过研究自动驾驶系统中基于人工智能的算法,本文探讨了人工智能模型的作用和挑战,特别是在复杂和高维环境中执行实时关键功能的软件元素。针对安全关键应用,为了减少 AI 模型过于自信带来的风险,提出了一些培训方法,如实现确定性报告架构和确保多样性训练数据。此外,还讨论了现有方法在安全关键应用中的适用性,强调了其优点和局限性,并提出了提高自动驾驶车辆中人工智能算法安全性和可靠性的潜在改进措施。
Feb, 2024
本文提出了一个基于贝叶斯分析的安全性论据框架,该框架使用运行数据和最新的深度学习验证技术,支持多种形式的预测,并针对实际的关键系统进行了建模和验证。
Mar, 2020
本章提出了七个防止人工智能系统造成伤害的课程,探讨了系统安全领域的见解,针对公共机构及基础设施中的新应用程序引发的新危害,阐述了诊断和消除新人工智能系统危害的共识缺失,并探讨了有效人工智能管理所需的跨学科方法和共享语言。
Feb, 2022
通过世界模型、安全规范和验证器的相互作用,提出了一系列保证安全的人工智能(AI)方法,旨在为 AI 系统提供高保证的量化安全保证,并描述了核心技术挑战和潜在解决方案。
May, 2024
该论文探讨了人工智能的发展带来的挑战,提出了在系统、架构和安全方面的研究方向,以解决 AI 技术存储和处理数据量的限制,并提高数据隐私保护,以便这一技术能够更好地改善人们的生活和社会。
Dec, 2017
基于深度学习的认证在安全关键应用中是一个非常重要的问题,本文通过研究使用于航空等安全关键领域的实际问题,调查机器学习研究社区中针对深度学习系统鲁棒性和可靠性验证的方法学,并提出了一个新的基于安全设计和运行时错误检测的深度学习认证框架。
Mar, 2024
本文讨论机器学习中的安全和安保问题,主要涉及神经网络分类、视觉应用和预测性维护等领域,指出了其中存在的安全和安保漏洞,为推广该技术提供了风险评估的方法。
Jul, 2022
当前的大型语言模型仍然容易受到对抗攻击,使其表现出不安全的行为,这一基本问题不仅对当前的人工智能系统尚未解决,而且在不严重削弱其能力的情况下可能难以解决,同时也对未来和更具能力的人工智能系统的安全性提出了担忧。
Nov, 2023