- 用少量单比特测量来验证几乎所有的量子态
证明了可以通过 O (n^2) 单比特测量来认证几乎所有 n 比特目标态,包括具有指数电路复杂性的目标态,并通过建立一种新的与随机行走的混合时间相关的技术,将认证与目标态的混合时间相关联。
- ICLRCOLEP:基于概率电路的可保证鲁棒学习推理合规预测
通过概率电路建立可靠的学习推理一致性预测框架(COLEP),致力于在有界对抗扰动存在的情况下提供准确和高效的预测覆盖度,证明 COLEP 在不同数据集上的鲁棒一致性预测能力并实现了一定的提升。
- 基于固有安全设计和运行时错误检测的安全关键应用深度学习认证框架
基于深度学习的认证在安全关键应用中是一个非常重要的问题,本文通过研究使用于航空等安全关键领域的实际问题,调查机器学习研究社区中针对深度学习系统鲁棒性和可靠性验证的方法学,并提出了一个新的基于安全设计和运行时错误检测的深度学习认证框架。
- 统一和认证高质量规划
这篇论文将现有的定义统一为一种基于支配关系的定义,证明了不同的计算问题实际上对应于不同的支配关系,提出了一种有效证明各种高质量规划问题的方法,并提出了一种新的转化方法以有效证明无循环的高质量规划。
- 面向 Evidential 工具总线的 ADS 连续保证案例创建
借助 Evidential Tool Bus(ETB)工具集成框架,本文报道了使用预定义的保证案例模式从事保证案例的构建和持续维护的初步经验,以满足安全关键系统的认证需求。
- 认证神经网络推断的高效数学稳健运算
近年来,机器学习(ML)和神经网络(NNs)在各个领域广泛使用和受到关注,特别是在交通运输领域实现自主性,包括城市空中出租车(UAM)的出现。然而,对认证的担忧已经出现,强调了需要包含整个 ML 和 NN 管道的标准化过程的发展。本文深入研 - 对抗性鲁棒性的利弊
该论文揭示了现有鲁棒性定义以及鲁棒性认证方法的一些局限性,并调查了除了与鲁棒性相关的对抗性例子之外的其他用途。
- 医学图像分割深度学习模型认证
基于随机平滑和扩散模型的医学图像分割基线,通过多项公共数据集的实验证明其能够在高度扰动的图像中保持高准确性。
- 没有法规就没有信任!
机器学习在工业系统中的应用以及其安全性和合规性对于决策辅助等关键功能具有重要意义,然而,当前机器学习组件的低形式化程度和不确定性使得使用传统的关键系统工程方法难以验证和验证其安全性,因此需要制定适用于人工智能的规范和监管标准,提出可信的人工 - 关于机器人和人工智能中基准、标准和认证之间的关系
基准测试,标准和认证是紧密相关的过程,本文通过基准测试,标准和认证的例子,讨论这三个相关过程对负责任创新的实践不仅有用而且至关重要。
- 何时相信 AI: 神经网络认证的进展与挑战
人工智能正在快速发展,并已成熟用于许多应用领域,如自主系统、医学诊断和自然语言处理。本文概述了确保人工智能决策安全的技术,并讨论了未来的挑战。
- 面向基于机器学习的分布式系统的认证
本文分析了目前认证方案存在的挑战和不足,讨论了开放的研究问题,并针对基于机器学习的分布式系统提出了第一个认证方案。
- DeepBern-Nets: 使用 Bernstein 多项式激活和精确边界传播驯服神经网络认证的复杂性
本文提出了一种基于 Bernstein 多项式的神经网络激活函数 DeepBern-Nets,并设计了新算法 Bern-IBP,用于更有效地计算其输出的紧密界限。实验表明,基于 Bernstein 多项式的激活函数可提高神经网络的证明过程, - 多视角信息认证实现的强韧性多智能体通信
本文提出了一种名为 CroMAC 的多智能体通信安全策略,并使用多视角自动编码器将所有信息提取出来进行证书验证,在多个协作多智能体基准测试中,证明了 CroMAC 的有效性。
- 黑盒系统的贝叶斯安全验证
本文提出了一种基于贝叶斯优化的安全验证算法,它通过迭代地适配概率代理模型来高效预测故障,并通过重要性采样来估计操作域内的故障概率。经实验表明,该算法在减少样本数和各种安全验证指标方面表现良好,并可用于补充机器学习组件的 FAA 认证过程。
- 神经网络的公平性验证
本文提出了 Fairify 方法,使用 SMT 来验证神经网络中的个体公平性,通过输入分割和剪枝以证明或反驳公平性认证,并在 25 个实际神经网络上进行了评估。
- AAAI量化感知区间边界传播用于训练可证明鲁棒性的量化神经网络
本文研究了在保证噪声攻击后的量化神经网络的训练和认证问题,并提出了一个能够完全利用 GPU 加速的 QA-IBP 训练方法和验证流程,大大优于现有方法,已成为量化神经网络鲁棒性训练和认证新的标准。
- ICML可证明的对抗鲁棒最近原型分类器
该研究讨论了最近原型分类器在使用 $\ell_p$-distance 和 $\ell_q$-threat models 进行决策和认证时的复杂性,并使用高效的改进下界来训练具有证明的对抗鲁棒性的 PNPC,以在图像分类上获得更高的准确性。
- 软对抗训练可以保留自然准确度
本文研究用抽象认证来提取子输入以进行软对抗训练,提出了一个培训框架,能在约束条件下保持自然精度而不牺牲强健性,证明了软对抗性训练在对抗攻击防御方面的可行性,并提出了未来工作的范围以进一步改进该框架。
- AAAI通过数据融合获得可认证的人工智能
该论文回顾和提出了在采用、推广和维护人工智能(AI)系统方面存在的问题,并使用设计和操作测试和评估过程,探讨了确定性能界限以管理预期用途的机会。该论文提供了一个假想案例,使用图像数据融合支持 AI 对象识别可证明性考虑精度与距离。