去中心化联邦学习中的威胁变体、对手、潜在的防御机制、可信度和可验证性的研究。
Jan, 2024
本文对联邦学习的隐私保护问题进行了广泛的研究和探讨,提出了对应的防御方法并对防御方法的选择提出了指导建议,研究得出了关于攻击和防御行为的进一步结论以及面临的挑战和经验教训。
Jan, 2022
本文在安全的角度对联邦学习和迁移学习进行了全面的调查,旨在发现可能会危害使用联邦和迁移学习系统的隐私和性能的潜在漏洞和防御机制。
Jul, 2022
分布式学习中的联邦学习存在安全和隐私挑战,本研究针对各类机器学习模型,包括大型语言模型,提出了安全和隐私挑战的综合分类,重点关注聚合器和参与者的攻击,包括投毒攻击、后门攻击、成员推断攻击、生成对抗网络攻击和差分隐私攻击,同时提出了未来研究的新方向,旨在强化联邦学习系统以应对新兴安全风险并保护分布式学习环境中的敏感数据隐私。
Jul, 2023
联邦学习在医疗保健行业有巨大潜力,可以解决数据收集和隐私保护的问题,然而,攻击和防御方面的挑战仍需进一步研究以实现更强大的联邦学习。
本文提供了一种系统的概述和分类,涵盖了联邦学习的现有安全挑战以及针对数据污染,推断攻击和模型毒化攻击的防御技术。此外,还探讨了处理非独立同分布数据、高维度问题和异构架构的联邦学习的当前训练挑战,并提出了解决相关挑战的几种解决方案。最后,我们讨论了联邦学习训练中剩余的挑战,并提出了针对开放问题的研究方向建议。
Apr, 2022
本文研究基于联邦学习框架下的矩阵分解法,将其分为三种模型,并分析每种模型存在的隐私威胁及保障方法,是矩阵分解法在联邦学习框架下的隐私威胁研究的第一篇。
Jul, 2020
本文提供了一种简洁的介绍联邦学习的概念,并使用一个唯一的分类法来涵盖针对联邦学习的威胁模型和两个主要的攻击方法:1) 污染攻击和 2) 推理攻击,探讨了向更强大的隐私保护方向发展的有前途的未来研究方向.
Mar, 2020
本文综述了联邦学习系统的定义、系统构成和分类,旨在为未来的研究提供参考,通过对现有联邦学习系统的系统总结,提出了设计因素、案例研究和未来研究机会。
Jul, 2019
深度学习和联邦学习是当前研究的重点,其中涉及隐私保护技术、隐私攻击以及隐私法规的探讨。
May, 2024