- 联邦学习健康应用的安全可信网络架构
TRUSTroke 项目介绍了一种基于 Federated Learning 的网络基础架构,用于在医疗场景中辅助卒中预测,并分析了不同通信协议对网络操作的影响,最终提出了一种安全性架构,以提高信任水平。
- Hawk:使用安全查找表计算的精确且快速的隐私保护机器学习
训练具有多个实体的机器学习模型,并且在没有直接数据共享的情况下,可以解决由于业务、法律或道德限制而受阻的应用。本文设计和实施了新的隐私保护机器学习协议,用于逻辑回归和神经网络模型。我们采用了两个服务器模型,在数据所有者之间进行数据密钥共享, - Pencil: 私密且可扩展的协作学习,无需无合谋假设
Pencil 是第一种为协作学习提供数据隐私、模型隐私和可扩展性的私有训练框架,无需依赖于非勾结假设。
- 矩阵流形上的数据协作分析
通过在矩阵流形上进行优化问题和高效解决方案,本研究为合作函数建立了严格的理论基础,并引入了新的公式,在维护一致性和效率、不损害通信效率或隐私保护的同时,显著提高了性能。
- 通过合成文本生成实现差分隐私知识蒸馏
利用差分隐私的知识蒸馏算法,通过利用合成数据和教师模型的输出分布,成功地在压缩自回归型大型语言模型的同时保护训练数据的隐私。
- 低精度多项式逼近的神经网络:提高准确性的新见解与技术
通过使用多项式逼近替换神经网络中的非多项式函数,并结合高精确逼近,本论文提出的多项式逼近神经网络(PANN)在实现隐私保护模型推理时与底层骨干模型具有类似的推理准确性。此外,通过对 PANN 的独立性进行调查,论文提出了提高 PANN 推理 - AAAI加密 Fine-tuning 变压器:使用完全同态加密
通过在完全同态加密数据上进行的训练,提出了 BlindTuner 这一隐私保护的 Fine-Tuning 系统,用于图像分类,并证实其在准确性上与非加密模型相当,并且相对于先前研究在速度上有 1.5 倍至 600 倍的显著提升。
- 数据集精炼驱动的机器遗忘
改进机器遗忘,提出图像分类的数据集精简技术和创新性遗忘方案,平衡隐私保护、实用性和效率,并运用于抵御成员推理和模型逆推攻击,并去除精简模型中的数据以快速训练任何模型。
- GuardML: 通过混合同态加密实现高效隐私保护的机器学习服务
以保护隐私和安全的机器学习模型为目标,我们提出了一种基于混合同态加密方案的隐私保护机器学习方法,通过使用混合同态加密构建安全的分类结果学习模型,同时保护输入数据和机器学习模型的隐私。我们通过开发和评估一个基于混合同态加密的隐私保护机器学习应 - 高效稀疏最小绝对偏差回归与差分隐私
本文提出了一种用于稀疏鲁棒回归问题的快速隐私保护学习解决方案,其中学习损失包括鲁棒最小绝对值损失和 $l_1$ 稀疏惩罚项。为了快速解决给定隐私预算下的非光滑损失,我们开发了一种名为 FRAPPE 的算法,通过将稀疏 LAD 问题重新表述为 - Facebook 关于 fNIRS 数据隐私的报告
本研究的主要目标是为 fNIRS 数据开发隐私保护的机器学习模型训练技术。该项目将在集中设置中构建一个具有差分隐私和认证鲁棒性的本地模型。还将探索协作联合学习,以在多个客户之间训练共享模型,而无需共享本地 fNIRS 数据集。为了防止这些客 - 改善差分隐私线性学习器的目标扰动的隐私性和实用性
在隐私保护机器学习领域中,差分隐私随机梯度下降(DP-SGD)已经超过了目标扰动机制在流行度和兴趣方面。这篇论文通过更严格的隐私分析和新的计算工具对目标扰动机制进行改进,使其在无约束的凸广义线性问题上能够与 DP-SGD 具有竞争力。
- 联邦学习算法的效率和隐私的实证研究
物联网网络和数据处理技术的发展对分布式学习方法中的联邦学习具有巨大潜力,本论文通过两个实例展示了联邦学习在物联网网络中实现高效和保护隐私的机器学习的潜力,并通过模拟研究了隐私和准确性之间的权衡关系。
- 热 PATE:用于多样任务的私密聚合分布
私有教师集成的 PATE(The Private Aggregation of Teacher Ensembles)框架是一种多用途的隐私保护机器学习方法,通过训练教师模型来聚合标记新的学生模型的训练样例。传统的 PATE 主要应用于分类类 - 探索联邦学习的机器学习模型:方法、性能和限制的综述
分布式学习框架 - 联邦学习增强了个人数据隐私保护,允许协作研究且无需共享敏感数据;通过多源信息合作,提供更多种类的洞察力。本文是对隐私保护机器学习的系统性文献综述,通过 PRISMA 指南对近年来得出的有关联邦学习的监督 / 非监督机器学 - 参照数据在实证隐私防御中的作用:一个警示故事
在隐私保护机器学习领域,我们提出了一种基于经验的隐私防御方案,旨在在不显著降低模型效用的情况下实现训练数据隐私的满意水平。通过研究现有的防御方法以及对比参考数据的可用性和隐私处理,我们设计了一种基线防御方法,通过权重经验风险最小化处理训练和 - LinGCN:结构化线性化图卷积网络用于同构加密推理
LinGCN 是一个旨在减少乘法深度和优化基于同态加密 (Graph Convolution Network) 推断性能的框架,通过 (1) 可微的结构线性化算法和参数化的离散指示函数,使模型具有最小化的乘法深度;(2) 紧凑的结点级多项式 - 隐私保护机器学习的鲁棒表示学习:一种多目标自编码器方法
通过鲁棒表示学习作为编码数据的方式,我们提出了一种旨在优化隐私效用平衡的方法,利用自动编码器进行多目标训练,然后将编码部分的潜在特征和学习特征连接起来作为我们的数据的编码形式,以安全地发送给第三方进行深度训练和超参数调优,从而在维护数据隐私 - 基于自适应共振理论的隐私保护连续联合聚类
在数据隐私保护日益重要的背景下,提出了一种隐私保护的连续联邦聚类算法,该算法在保持数据隐私的同时实现了较高的聚类性能和连续学习能力。
- 高效异构联邦学习:一种基于匹配和分割学习的方法
提出了一种新颖的拆分联邦学习(SFL)框架,它通过将具有不同计算资源的客户端配对,将神经网络模型逻辑分为两部分,每个客户端只计算分配给它的部分,从而显著提高了联邦学习的训练速度,并在独立相同分布(IID)和非 IID 数据分布中实现了高性能