ML 在安全性方面存在漏洞,提出威胁模型并对攻击进行分类,探究了模型准确性与抗敌对操作的关系。
Nov, 2016
对机器学习中隐私攻击的分类及防御方法进行了研究和探讨。
Jul, 2020
探讨隐私保护机器学习(PPML)的兴起及其对各领域的巨大影响,强调在机器学习框架中保护隐私所面临的挑战,讨论当前研究努力,旨在最小化隐私敏感信息和增强数据处理技术,通过应用密码学方法、差分隐私和可信执行环境等隐私保护技术,保护机器学习训练数据防止隐私侵犯,尤其关注 PPML 在敏感领域中的应用及其在保护机器学习系统隐私与安全方面的关键作用。
Feb, 2024
探讨了提高图机器学习(Graph ML)安全性的三个关键方面:可靠性、泛化能力和保密性,并采用一种新的分类法分析了与这些方面相关的威胁,指导评估有效策略来保护图 ML 模型的安全性,为未来的研究奠定基础。
May, 2024
对机器学习中存在的各种安全威胁、威胁模型及相关挑战进行了简要概述,利用 LeNet 和 VGGNet 对 MNIST 和 GTSRB 等基准进行了安全威胁演示,提出并解决了部分误差影响并较小的攻击方式,并阐述了开发安全措施的相关技术。
Nov, 2018
该论文在 Saltzer 和 Schroeder 1970 年代的经验教训下,回顾了最近关于隐私的两篇研究文章,并探讨了新技术在保护机器学习所依赖的数据隐私方面的应用。
Aug, 2017
当前机器学习系统需解决隐私问题,需要填补机器学习与隐私社区之间的知识差距,本文介绍两个领域的交叉点,重点介绍用于数据保护的技术。
Mar, 2018
本文对机器学习与隐私问题进行了综述,涵盖了三种交互方式:(i) 私有机器学习,(ii) 机器学习辅助隐私保护,以及 (iii) 基于机器学习的隐私攻击和相应的保护方案,总结了各个领域内的研究进展和关键挑战,并提出了未来的研究方向。
Nov, 2020
通过介绍隐私和安全威胁,我们致力于提高人们对于使用开源模型时负责任和安全的意识。
Aug, 2023
介绍机器学习和深度学习技术在医疗保健的应用及相应的安全和隐私挑战,并提出了相关方法以确保医疗保健应用中的安全和隐私保护。
Jan, 2020