个性化和私密的点对点机器学习
通过开发 P4(Personalized Private Peer-to-Peer)方法解决个性化学习中的客户聚类和数据隐私的挑战,保证每个客户在培训期间和培训后维护不同的隐私保证,并在多个基准数据集和不同的神经网络模型上展示了相对于差分隐私 P2P 技术的高达 40%的精确度提高。
May, 2024
一种考虑了分散式机器学习和数据保护的联邦学习方式,通过构建本地图和局部连接来训练个人的、个性化的非线性模型,实现了低通讯成本和对数据的隐私保护。
Jan, 2019
使用点对点深度学习算法,实现分布式边缘设备之间的协作训练深度神经网络,无需交换原始训练数据或依赖中央服务器。我们发现模型漂移导致本地训练和共识阶段之后的测试性能出现显著震荡,并确定了放大性能震荡的因素。通过我们的创新方法 P2PL with Affinity,在非独立同分布的设置中,我们能够减弱测试性能震荡,而不增加额外的通信成本。
Dec, 2023
我们提出了 P2PL 算法,它是一种实用的多设备对等深度学习算法,不需要边缘服务器或云端的协调,适用于超过 5G 计算环境(如智能城市)中的规模、延迟、带宽和单点故障问题,并通过最大范数同步、设备上的深度模型训练保护隐私、本地设备间通信实现分布式一致性。通过实验证明,即使使用 100 台设备和松散的随机一致性权重,所有参与设备都能达到联邦和集中式训练所达到的相同测试性能,并将这些实验结果扩展到具有多样化网络拓扑、稀疏和间歇通信以及非 IID 数据分布的环境中。
Oct, 2023
研究分布式机器学习系统,并基于修正的随机优化算法实现私人级联学习,在保证局部模型私密性的同时,与全局模型进行协调,提升了准确性和隐私保护的平衡。
Feb, 2022
移动设备、隐私、实用性、联邦学习和差分隐私是该研究的主要关键词,研究通过在联邦学习中采用差分隐私的实验环境并使用基准数据集来探讨隐私与实用性之间的平衡问题。
Nov, 2023
本文介绍了一种分布式基础设施,用于实现分布式代理之间的点对点信任,从而协同执行保护隐私的机器学习工作流程。使用 Hyperledger Aries,Decentralised Identifiers (DIDs) 和 Verifiable Credentials (VCs) 建立了一个分布式信任体系,促进与心理健康护理相关的联邦学习工作流程。
Jun, 2020
本论文研究了一组学习代理在协作对等网络中,每个代理根据自己的学习目标学习个性化模型。本文介绍和分析了两种异步流言算法,以完全分散的方式运行。我们的第一种方法旨在在网络上平滑预训练的本地模型,同时考虑每个代理在其初始模型中的置信度。在我们的第二种方法中,代理共同学习和传播其模型,基于其本地数据集和邻居的行为进行迭代更新,为了优化这一具有挑战性的目标,我们的分散算法是基于 ADMM。
Oct, 2016
本文提出了一种新型的分布式在线学习算法,并采用差分隐私来保护学习者的隐私。通过使用在线学习的遗憾界,实现离线学习算法的快速收敛。在模拟中,证明了我们所提出的定理的正确性和算法的普适性。
May, 2015
人工智能的发展显著改变了人们的生活,但也对隐私和安全构成了重大威胁。因此,通过机器学习算法实现个人信息的智能保护已成为一项重要关注点。本文着重于个人数据隐私保护和匿名化的核心研究目标,通过使用机器学习的差分隐私保护算法,实现个人数据隐私保护和检测,并解决与隐私和个人数据保护相关的现有挑战,提出改进建议,分析影响数据集的因素以实现及时的个人数据隐私检测和保护。
Feb, 2024