机器学习模型保护机制之间的冲突交互
机器学习模型在安全、隐私和公平性方面不能忽视风险。已有的防御方法虽然可以缓解某些风险,但也可能增加其他风险的易受性。现有研究缺乏一个有效的框架来识别和解释这些意外交互。我们提出了一个这样的框架,基于过度拟合和记忆化的猜想来解释这些意外交互。我们调查了关于意外交互的现有文献,并将其纳入我们的框架。我们使用我们的框架对两种以前未被探索的交互进行了猜想,并通过实验证实了我们的猜想。
Dec, 2023
使用敌对训练和差分隐私训练的组合,本研究探讨了针对同时攻击的防御方法。通过使用成员推断攻击来基准测试 DP-Adv 技术的性能,并实证显示该方法的隐私性与非鲁棒私有模型相当。此外,该研究还强调了在动态训练范式中探索隐私保证的需求。
Jan, 2024
探讨隐私保护机器学习(PPML)的兴起及其对各领域的巨大影响,强调在机器学习框架中保护隐私所面临的挑战,讨论当前研究努力,旨在最小化隐私敏感信息和增强数据处理技术,通过应用密码学方法、差分隐私和可信执行环境等隐私保护技术,保护机器学习训练数据防止隐私侵犯,尤其关注 PPML 在敏感领域中的应用及其在保护机器学习系统隐私与安全方面的关键作用。
Feb, 2024
该研究讨论了机器学习算法的威胁模型,提出了三个解决方案:验证和准入控制、可靠的攻击记录机制和安全与隐私的形式化框架,通过这些方案来设计出较好的机器学习系统。
Nov, 2018
本文研究机器学习中的安全和隐私领域,重点探究性会员推断攻击是否会受到对抗性的防御方法的影响,并通过实验验证证明对抗性的防御方法可以增加目标模型的风险。
May, 2019
本文对机器学习与隐私问题进行了综述,涵盖了三种交互方式:(i) 私有机器学习,(ii) 机器学习辅助隐私保护,以及 (iii) 基于机器学习的隐私攻击和相应的保护方案,总结了各个领域内的研究进展和关键挑战,并提出了未来的研究方向。
Nov, 2020
机器学习应用的成功依赖于庞大的数据集和分布式架构,随着其规模的增长,给机器学习带来了挑战。本文研究了在分布式架构中实现隐私和稳健性的成本,并探讨了在机器学习应用中隐私、稳健性和计算效率面临的挑战和解决方案。
Dec, 2023
对机器学习中存在的各种安全威胁、威胁模型及相关挑战进行了简要概述,利用 LeNet 和 VGGNet 对 MNIST 和 GTSRB 等基准进行了安全威胁演示,提出并解决了部分误差影响并较小的攻击方式,并阐述了开发安全措施的相关技术。
Nov, 2018