MLaaS 服务的 “模型窃取” 攻击威胁了提供商的知识产权,本文通过对该领域进行全面系统化的分类和比较,探索了相应的防御技术,并提出了攻击和防御策略的分类法和指南并分析哪些防御策略被当前攻击策略削弱
Jun, 2022
本研究探究了机器学习模型机密性和公共访问之间的紧张关系,针对在线服务(如 BigML 和 Amazon Machine Learning)中的普通模型类,研究了一些简单有效的攻击方法和相应的反攻击策略。
Sep, 2016
本研究发现黑客可以以低廉代价窃取现有文本 API 中流行的语言模型(包括 GPT-2 和 GPT-3)的解码算法类型和超参数
Mar, 2023
本文提出一种防御简单模型窃取攻击的方法,通过在提供的信息中添加噪音以限制敌对方的信息获取,使窃取模型的准确性降低至少 20% 或需要多达 64 倍的查询次数,并在此过程中保持原模型准确性。
May, 2018
对机器学习中隐私攻击的分类及防御方法进行了研究和探讨。
Jul, 2020
本篇论文研究了常见机器学习模型的超参数优化,介绍了一些最先进的优化技术,并讨论了如何将它们应用于机器学习算法。同时,也提供了许多用于超参数优化问题的库和框架,并在基准数据集上进行了实验,以比较不同优化方法的性能,提供超参数优化的实际例子。该综述论文将帮助工业用户、数据分析师和研究人员通过有效地识别适当的超参数配置来更好地开发机器学习模型。
我们提出了一种在推断时间进行模型劫持的简单方法 SnatchML,通过在受害模型的潜在空间中使用距离度量来将未知输入样本分类为与劫持任务类别相关的先前已知样本。同时,我们还探讨了不同的方法来缓解这种风险,其中包括一种名为 meta-unlearning 的新方法,用于在原始任务数据集上进行训练时帮助模型遗忘潜在的恶意任务,并针对这种攻击提出了一种基于压缩的对抗措施。
Jun, 2024
通过限制可用目标数据和查询数量,并利用与目标数据共享物品集的辅助数据,利用注意机制将它们融合起来辅助攻击,该论文设计了有效提取通过查询目标模型获得的推荐列表的窃取函数,实验结果表明该方法适用于大多数推荐系统和各种场景,并在多个数据集上表现出优异的攻击性能。
Dec, 2023
本文介绍了机器学习领域中的超参数搜索问题,并从优化的角度讨论了其主要挑战。大多数通用的学习算法包含一组必须在训练开始前确定的超参数,其选择会对结果模型的性能产生重大影响,本文提出了一个有纪律、基于理论的搜索策略是至关重要的。
Feb, 2015
本篇论文探讨了机器学习算法在敏感数据应用时对隐私的威胁,分析了过拟合和影响因素对攻击者从训练数据中提取信息的能力的影响,并研究了成员推断和属性推断之间的联系。
Sep, 2017