使用对抗神经网络的机器学习不确定性
研究机器学习模型中的对抗样本和贝叶斯神经网络的不确定性测量,并发现置信度和不确定性可能是无可疑的,即使输出是错误的;同时,对大多数任务,我们在影响不确定性和置信度方面发现微妙的差异。
Dec, 2018
研究了使用贝叶斯神经网络中的可学习不确定性来训练预测过程监控模型,以预测剩余时间和结果,并得出结论认为这种不确定性估计可以区分更精确和不太精确的预测,从而提高了用户对于这种预测系统的信心,在合作和以较小的数据集进行更早的实施方面具有潜在的可应用性。
Jun, 2022
深度学习使我们能够高效地训练复杂数据的神经网络。然而,随着研究的增长,神经网络的几个弱点也被曝光。对抗机器学习是一种特定的研究领域,旨在利用和理解导致神经网络因输入接近原始输入而错误分类的一些弱点。提出了一类称为对抗性攻击的算法,用于在不同领域的各种任务上使神经网络错误分类。随着对对抗性攻击的广泛研究,了解对抗性攻击的分类是至关重要的。这将有助于我们以系统性的方式了解弱点,并帮助我们减轻对抗性攻击的影响。本文对现有的对抗性攻击及其不同角度的理解进行了概述,并简要介绍了现有对抗性防御措施及其在减轻对抗性攻击效果方面的局限性。此外,我们讨论了对抗机器学习领域未来研究的方向。
Aug, 2023
论文研究了神经网络模型的不确定性对于对抗样本的产生具有决定性作用,与体系结构、数据集和训练协议无关,表现为对抗误差具有与对抗扰动大小呈幂律的普适性,通过减小预测熵来提高对抗鲁棒性,在 CIFAR10 上使用神经架构搜索找到更鲁棒的架构。
Nov, 2017
为了让实际应用的人工智能系统更加被广泛认知,模型的可信度至关重要。文章提出了一种新的训练策略,结合熵鼓励损失项和对抗校准损失项,以提高样本在领域世界偏移下的校准性和适应性。文章在不同的数据模式、数据集和网络架构上进行了全面的评估,结果显示该方法明显高于现有的最先进方法,应用于领域漂移下预测方面具有技术上的可信度。
Dec, 2020
本文提出了一种基于物理启发式神经网络的深度学习框架,用于量化和传播受非线性微分方程支配的系统中的不确定性。通过建立概率表示,对系统状态进行训练以满足给定的物理定律表达式,并提供了一种有效训练深度生成模型作为物理系统的代理的规范化机制,在这些系统中,数据采集成本高,训练数据集通常较小。该框架提供了一种灵活的方式,用于因输入随机性或观测噪声而导致的物理系统输出不确定性的表征,完全绕过了重复采样昂贵的实验或数值模拟器的需求。作者通过一系列例子证明了方法的有效性,这些例子涉及非线性守恒定律中的不确定性传播以及直接从嘈杂的数据中发现流体通过多孔介质的本构规律。
Nov, 2018
机器学习模型因神经网络的线性特性容易受到对抗性扰动的影响,该现象不同于过拟合和非线性,但可以通过生成对抗性训练样本来减小 MNIST 数据集中 maxout 网络的误差。
Dec, 2014
本文探讨了针对数据驱动应用中出现的恶意攻击对卷积神经网络(CNN)事件原因分析框架的影响,并通过实时数字模拟器(RTDS)生成的数据分析了不同攻击类型和数据访问级别下攻击的有效性和防御机制。
Nov, 2019
深度学习算法在高能物理学领域中越来越受到重视,特别是针对飞行物理观测中标签识别任务的,研究者们正致力于提高模型的稳健性并针对异常数据提出对抗性训练策略以提高模型的鲁棒性。
Mar, 2023
本文主要介绍了机器学习算法在数字经济和人工智能等领域中的广泛应用,特别是在安全关键应用领域中的重要性。同时,文章详细介绍了对抗机器学习攻击的原理、攻击类型及当前各种防御机制的深度分析。
Feb, 2022