- ARIA: 论联邦视觉分类中架构、聚合方法和初始化的相互作用
联邦学习是一种协同训练范例,通过消除敏感数据的交换而依赖于客户端和服务器之间的模型参数交换,从而实现了跨机构模型的隐私保护学习。本文研究了联邦学习架构、初始化和聚合的相互关联作用,并通过在多个医学图像分类任务上进行的综合评估,找到了最佳性能 - 差分隐私深度生成模型的统一视角
利用不同隐私保护方法在深度神经网络上进行私密训练,以实现维度较高的数据生成,并提出统一的方法以提供系统性的派生方法,满足不同用例的需求,探讨不同方法之间的优势、限制和内在相关性以启发未来研究,并提出前进的潜在途径以推动隐私保护学习领域的发展 - S-GBDT:节俭差分隐私梯度提升决策树
隐私保护学习梯度提升决策树(GBDT)可对标准表格数据具有很强的效用 - 隐私权衡潜力,采用差分隐私作为验证隐私属性的最新方法,并利用四种主要技术改善了效用 - 隐私权衡。
- 通过凸包的安全聚合,在双曲空间中进行联邦分类
以树型数据和超几何空间为基础,提出了分层学习和分类的新方法,通过使用凸包以及整数数列恢复标签,并使用平衡图分区聚合客户端的数据,以实现在分布式和隐私保护设置下的高准确率分类学习。
- 无法察觉的人类图像,可被机器识别
本文提出了一种有效的隐私保护学习范式,通过对图像进行加密以实现人类不可察觉机器可识别,将这一方法应用于图像分类和目标检测,在 ImageNet 和 COCO 数据集上实验结果表明,这种方法可以实现与现有方法相当的准确性且能够确保加密图像的隐 - 核仿射壳机与差分隐私学习
本研究探讨通过在再生核希尔伯特空间中利用点的仿射包作为表示数据的一种方式,不仅可以将数据空间划分为几何体来隐藏个体数据点的隐私敏感信息,同时能保留原始学习问题的结构。我们介绍了 Kernel Affine Hull Machine (KAH - 通过势能损失使分裂学习具有标签泄漏韧性
本研究探讨了利用少量标记样本来微调底层模型从而导致的隐私泄漏问题,并通过引入势能损失来增加底层模型输出的复杂性,使其更难以被泄漏,从而提高了 Split Learning 的隐私安全性。
- PP-MARL: 高效隐私保护多智能体协作通信智能化
本论文提出了一种 PP-MARL 隐私保护学习方案,基于多智能体强化学习,应用于通信网络中的移动管理和边缘智能网络控制领域,以实现更有效、可靠的协作和更好的隐私保护。在模拟实验中,该方案达到了比现有方法更好的隐私保护和更低的开销。
- ACL从移动数据中学习语言和多模态隐私保护的情绪标记
通过对高自杀风险人群进行研究,本文从语言和移动文本的多模态表示等方面分析了手机使用行为与情绪的关联,并提出一种保护隐私的深度学习方法来提高智能手机数据的使用价值。
- HybridAlpha: 面向隐私保护的联邦学习高效方案
本文介绍了一种基于功能加密的安全多方计算协议,采用混合 Alpha 方法实现隐私保护联邦学习,可以在保证模型性能和隐私保障的前提下,减少了 68% 的训练时间和 92% 的数据传输量。
- 非独立同分布数据上健壮且高效的联邦学习
本研究提出了 Sparse Ternary Compression (STC),一种针对 Federated Learning 环境的新型压缩框架。实验表明,STC 在常见 Federated Learning 场景下,即使客户端持有非 i - NIPS分布式统计学习的引导模型聚合
本文提出两种方差降低方法对分布式、隐私保护学习中使用的基于自助法的方法进行改善,包括权重 M - 估计器等。进行了理论和实证分析以证明我们的方法。
- 大函数空间中的学习:基于隐私保护机制的支持向量机学习
研究了隐私保护学习中可用性或风险与统计查询处理机制提供的差分隐私级别之间的权衡,提出了针对有限维特征映射和潜在无限维特征映射的两种有效机制,并利用算法稳定性证明了差分隐私,并使用正则化经验风险最小化的光滑性证明了机制的效用。