MLaaS 中的私有训练集检查
使用主动学习和大规模公共数据集的模型提取框架,可以通过黑盒访问从图像和文本领域的各种数据集中训练出的深度分类器,其中仅使用其 30%(30,000 个样本)的数据集。
May, 2019
通过使用一种安全、可验证且保护隐私的协议,Fairness as a Service (FaaS) 提供了一种计算和验证任何机器学习模型公平性的方法,并通过加密保护数据和结果的隐私,同时零知识证明和多种公平性指标的支持使其能够作为一种服务来审计任何机器学习模型的公平性。
Sep, 2023
本文介绍了一个基于交互和隐私保护测试的框架,该框架允许对任何经过训练的模型进行公平程度的认证,无论其训练过程和架构如何,并且提供了一种加密技术来自动进行公平测试和认证推理,同时隐藏参与者的敏感数据。
Sep, 2020
本文提出了针对机器学习服务的会员推理攻击的可能性,并放宽了先前攻击假设中的关键假设,说明这些攻击的适用性广泛且代价低廉,从而比先前认为的更具严重性;提出了对抗此类攻击的第一种有效机制,并保持模型的高效性。
Jun, 2018
MLaaS 服务的 “模型窃取” 攻击威胁了提供商的知识产权,本文通过对该领域进行全面系统化的分类和比较,探索了相应的防御技术,并提出了攻击和防御策略的分类法和指南并分析哪些防御策略被当前攻击策略削弱
Jun, 2022
云生态系统中的隐私和安全论文指出,解决机器学习模型引入的风险存在差距,通过调查 AIaaS 领域,提出了一种分类法来全面检查 ML 模型的创作者和消费者所面临的风险及其已知防御措施,为提供方和消费方提供了基础解决方案。
Jan, 2024
通过对模型的前后公平性进行评估,研究发现,在数据分布和训练数据规模发生变化时,数据和模型公平性指标之间存在线性关系。这表明,在训练之前对公平性进行测试可以尽早发现有偏见的数据收集过程,检测生产系统中的数据漂移,并减少全面训练周期的执行,从而减少开发时间和成本。
Jan, 2024
现代机器学习(ML)生态系统提供了大量的 ML 框架和代码库,可以极大地促进 ML 模型的开发。本研究考虑了恶意 ML 提供者供应模型训练代码给数据持有者的情况,该提供者无法访问训练过程,只能以黑盒查询方式访问结果模型。我们展示了一种新形式的成员推断攻击,比以往的攻击更强大,使对手能够可靠地取消识别所有训练样本,并且被攻击的模型仍然保持与未受损对照模型相当的性能。此外,我们还展示了被污染的模型可以在常见的成员隐私审核下有效伪装被放大的成员泄漏,只有对手知道的一组秘密样本才能揭示。总体而言,我们的研究不仅指出了最坏情况下的成员隐私泄漏,还揭示了现有隐私审核方法的一个常见问题,需要未来努力重新思考机器学习模型中的隐私审核实践。
Jul, 2024
我们提出了 NSML,一种机器学习即服务(MLaaS)平台,以满足在企业规模下开发机器学习工作的需求,为用户提供了易于使用的集群以及协作环境,同时提供可视化工具以协助用户分析其工作。通过实验证明了 NSML 的有用性和可访问性,并通过三个具有真实使用案例的竞赛检验了 NSML 的协作优势。
Oct, 2018
本研究提出了一种新颖的方法来使用自动机器学习技术来减轻偏见,并通过改进 AutoML 的默认优化函数和将公平目标纳入其中来实现这一目标,使偏见得到很好的缓解而几乎不会带来精度损失,同时还提出了一种公平感知的搜索空间修剪方法,以减少计算成本和修复时间。通过在四个公平问题和 16 个不同的机器学习模型上进行评估,发现本研究的方法在修复成败中有着显著的改进,成功地修复了 60 个错误案例,而现有的偏差减轻技术只修复了 44 个错误案例。
Jun, 2023