训练神经网络中的变异性鲁棒非参数假设检验
深度神经网络的训练通常涉及随机优化,种子的选择对于训练模型的质量至关重要,本文通过鲁棒的假设检验提出了一个新的网络相似性的统计量,利用该统计量来指导随机种子的选择,同时展示了该统计量在实验中的价值和在迁移学习中调优相比随机种子选取的优势。
Jun, 2024
通过使用所学深度神经网络模型的表示进行筛选测试数据,借助交叉熵算法进行高维分布采样,可以有效地更加精确地测试神经网络模型的可靠性,需要的标签数据量大大减少。
Jun, 2019
通过计算神经网络的可达集,提出了两种有效的方法来提高分类器和回归模型的健壮性和预测的可靠性。该原则适用于识别可靠和不可靠的预测的未标记输入,量化每个特征对预测的影响并计算特征排名。
Jul, 2020
本文提出了一种建立在鲁棒性预测推断上的不确定性估计模型,使用 conformal inference 方法建立了准确覆盖测试数据分布的预测集,通过估计数据漂移量建立了鲁棒性,并在多个基准数据集上进行了实验证明了该方法的重要性。
Aug, 2020
我们提出了一个通用的框架,用于构建针对大类非参数测试问题的强大的连续假设检验。该框架可以统一处理多个经典任务,如双样本测试、独立性测试和条件独立性测试,以及现代问题,如对机器学习模型的对抗鲁棒性测试。我们的方法对传统批量测试具有以下优势:1) 它持续监控在线数据流并有效地聚合针对零假设的证据,2) 它在不需要多重测试校正的情况下对类型 I 错误进行严格控制,3) 它根据问题的未知难度调整样本大小要求。我们在测试通过投票框架(testing-by-betting framework)中利用机器学习模型的表示能力方面开发了一种基于原则的方法,这是一种用于设计连续测试的博弈论方法。在合成和真实数据集上的实证结果表明,使用我们的通用框架实例化的测试在多个任务上与专门的基准测试相竞争。
Oct, 2023
深度学习和鲁棒性在安全关键应用中的测评方法以及概率鲁棒性的权衡和使用条件进行了比较分析,提出了一种基于假设检验的直观实用测量标准,并将其整合到 TorchAttacks 库中,为对模型鲁棒性的理解做出了贡献。
Apr, 2024
通过评估理论限制,我们研究了神经网络在分类任务中确定稳定性和准确性的保证限制。我们考虑经典的分布无关框架和最小化经验风险的算法,同时受到一些权重正则化的约束。我们展示了一个庞大的任务集,对于这些任务,在给定的神经结构类中计算和验证理想的稳定和准确的神经网络是极其具有挑战性的,即使在这样的理想解在给定的神经结构类中是可行的。
Sep, 2023
该研究利用基于规范的容量控制指标和基于幂律的重尾自正则化理论的度量方法对数百个公开可用的预训练模型进行了详细的元分析,发现基于幂律的度量方法可以更好地区分预训练模型的良好培训和质量低劣的模型。
Feb, 2020
引入了一种基于概率鲁棒性的贝叶斯神经网络(BNNs)的测量方法,定义为在某个有界集合内是否存在另一个点,使得 BNN 的预测在这两个点之间有差异的概率,并且可以用于量化对抗样本的存在概率。通过基于概率模型的统计验证技术,开发了一个框架,可以估计具有统计保证的 BNN 的概率鲁棒性,并在 MNIST 和 GTSRB 数据集的图像分类任务上提供了实验对比。结果可以在对抗环境中量化 BNN 预测的不确定性。
Mar, 2019