通过使用全批处理的哈密尔顿蒙特卡罗来近似推断的贝叶斯神经网络,在协变量转移下实现了良好的性能,但我们发现,贝叶斯模型平均在这种情况下可能会出现问题,特别是在输入特征中存在线性相关性导致后验收缩不足的情况下,我们提出了新的先验概率分布,以提高 BNN 对多种协变量转移的稳健性。
Jun, 2021
研究了在敌对输入扰动下,贝叶斯神经网络的概率安全性,使用非凸优化松弛技术计算贝叶斯神经网络概率安全性的下界,并且证明方法可用于对具有数百万参数的 BNN 进行概率安全性的认证。
Apr, 2020
考虑到协变量转移下测试样本与预期训练分布的距离,可以显著提高性能估计,通过引入 “距离检查” 来避免依赖于不可信任的模型输出以进行准确度估计。
Aug, 2023
本文研究了异变转移对传统机器学习模型性能的影响,通过对概率密度函数域的区域进行分类器性能评估,发现在二维分类问题中,随机森林算法表现最好,在高维实验中,模型主要受到分类函数复杂度的影响,对高密度区域呈现出高偏差的性质。
Apr, 2023
本文提出了一种有效的方法来严格检查神经网络的不同安全属性,可以检查不同的安全属性并找到具体的反例,比现有方法的性能提高了数个数量级,这种方法也有助于提高神经网络的可解释性并指导训练更加稳健的神经网络。
Sep, 2018
本研究提出一种基于 Satisfiability Modulo Theory (SMT) 的新型自动化验证框架,旨在保证深度神经网络对于图像操作的安全性,能够发现对于给定操作范围和家族,对抗性样本是否存在,同时比较现有的相关技术。
Oct, 2016
本文提出了一种机器学习可靠性指标,可以评估神经网络在不同的操作条件下的成功概率,并通过设计安全功能来减少有害失效,同时在维持高成功概率的前提下,在机器人操纵任务中进行了实际应用测试。
Dec, 2019
通过半定规划的框架来解决对于神经网络在输入不确定性和对抗攻击下的安全性和强鲁棒性认证的问题,通过抽象出激活函数的各种性质,分析其安全性质,解决了保守性和计算效率的平衡问题,并且可以应用于安全认证以外的问题。
Mar, 2019
本文提出了一种基于拓扑学视角的集合边界可达性方法,通过利用神经网络的同胚性质,仅需对输入集合的边界进行可达性分析,从而实现神经网络在安全验证问题上的应用。
Oct, 2022
数据分布转变达到某个阈值时,自治系统必须放弃控制并停止运行或移交给人工操作员,本文通过计算机视觉玩具例子演示了数据分布转变对网络预测准确性的影响,并提出了训练数据和测试数据之间的距离度量来定义在这些转变范围内的安全操作限制,结论是当数据分布转变超过经验阈值时,无法指望网络预测准确性不会下降。
Jun, 2024