F-BLEAU:快速黑盒泄露估计
本文提出了一种新的机器学习方法,用于在系统的 Black-Box 情况下评估 g-vulnerability 的信息泄漏,无需估计条件概率,适用于大多数机器学习算法,并在 k - 近邻和神经网络上的结果优于频率学派方法。
May, 2020
在当今数据驱动的世界中,公开可用信息的广泛传播加剧了信息泄漏(IL)的挑战,提高了安全性问题。本研究利用统计学习理论和信息论建立了一个理论框架来准确量化和检测 IL。该方法通过近似贝叶斯预测器的对数损失和准确度来准确估计互信息(MI),并使用自动化机器学习(AutoML)来近似贝叶斯预测器。研究通过在合成数据集和真实数据集上的实验验证了该方法的有效性。
Jan, 2024
本论文提出渗漏隐私问题的理论框架并通过实验论证现有的一些启发式防御措施并不能有效防范更加强大的攻击。因此,构建更加有效的防御措施及其评估仍是一个未解决的开放问题。
Nov, 2021
本文旨在量化信息的流失,从而定义最大泄漏等概念,研究了采用最大泄漏方式的密码方案,并推导了最佳限制以及样本复杂度。同时,使用存在猜测的框架为香农容量,最高相关性和局部差分隐私等常用泄漏度量提供了操作性的解释。
Jul, 2018
在存在异常值和误设测量模型的状态空间模型的在线滤波中,我们导出了一种新颖、可靠证明的闭合贝叶斯更新规则。我们的方法将广义贝叶斯推理与滤波方法(如扩展和集成卡尔曼滤波器)相结合,其中前者用于展示鲁棒性,后者用于确保非线性模型的计算效率。在异常值测量的一系列滤波问题(如物体跟踪、高维混沌系统的状态估计和在线神经网络学习)中,我们在更低的计算成本下与其他鲁棒滤波方法(如基于变分贝叶斯的方法)相匹配或表现更好。
May, 2024
本文探讨了成员推断中的最优策略。我们发现最优攻击仅取决于损失函数,因此黑盒攻击与白盒攻击一样好。通过多种逼近方法,我们的成员攻击在各种设置中均优于现有技术。
Aug, 2019
提出了一种新方法,Counterfactual Latent Uncertainty Explanations(CLUE),它能够解释可微分概率模型(如贝叶斯神经网络)的不确定性估计,并能够使从业者更好地理解哪些输入模式会导致预测不确定性。
Jun, 2020
本文提出了一种基于贝叶斯优化的安全验证算法,它通过迭代地适配概率代理模型来高效预测故障,并通过重要性采样来估计操作域内的故障概率。经实验表明,该算法在减少样本数和各种安全验证指标方面表现良好,并可用于补充机器学习组件的 FAA 认证过程。
May, 2023
本研究提出了一种简单直接的贝叶斯误差估计方法,可用于评估分类器和检测测试集过拟合。我们的方法灵活且无模型和实例需求,甚至适用于弱监督数据。实验结果表明,最近提出的深度网络,如 Vision Transformer 等,已经或即将达到基准数据集的贝叶斯误差。最后,我们还讨论了如何通过估计 ICLR 论文的贝叶斯误差来研究科学文章的接受 / 拒绝决策的困难程度。
Feb, 2022
该研究旨在提高基于决策的攻击,并展示了利用算法执行时间作为侧信道来实施决策攻击的能力,特别是在与目标检测相关的非最大抑制算法中发现的时间侧信道漏洞。研究提出了一种新的威胁模型,利用定时泄漏进行数据集推理,并探索了实施恒定时间推理传递作为一种缓解策略的潜力和限制。
Sep, 2023