本文研究基于联邦学习框架下的矩阵分解法,将其分为三种模型,并分析每种模型存在的隐私威胁及保障方法,是矩阵分解法在联邦学习框架下的隐私威胁研究的第一篇。
Jul, 2020
本研究的重点是在数据隐私保护方面,在联邦学习框架下的推荐系统中,提出了一种新的基于同态加密的隐私保护框架,并对这个框架进行了细致地分析和测试。
Sep, 2022
本文提出了一种名为 FedMMF 的新型联邦推荐方法,通过使用来自本地数据的个性化掩码来保护数据隐私,同时不降低效率和准确性,实现了推荐系统中隐私保护和个性化要求的同时满足。
Aug, 2021
提出一种新的算法,通过训练不同客户端的深度矩阵因式分解模型并仅共享物品向量来预测用户属性,从而解决用户属性预测中的一些重要隐私问题。
Dec, 2023
提出一种新的联邦学习方法,利用预训练模型作为本地模型的骨架,使用完全连接的层组成头部来解决客户端数据分布和计算资源不同的问题,在客户端之间共享类别的嵌入向量,采用加噪声的隐私保护混合方法来保护隐私,最后在自建车辆数据集上进行全面评估。
Jan, 2023
通过模拟结果,本文分析了联邦学习中的隐私和安全问题并提出了保护数据隐私的挑战。
Sep, 2019
研究垂直联邦学习结构用于逻辑回归,建立在同态加密方案之上的拟牛顿方法可解决交流困境,能够显著降低交流轮数,并且在每轮中,附加的沟通成本较少。
Dec, 2019
提出了一种名为联邦子模型学习的新的联邦学习框架,允许客户端只下载所需的完整模型的部分(即子模型)并上传子模型更新,同时采用私有集合联合协议作为基石的安全联邦子模型学习方案,通过随机响应、安全聚合和 Bloom 过滤器等属性,赋予每个客户定制化的近似不可否认性,保护其隐私数据,以电子商务推荐方案为例,验证了该方案的可行性和优越性。
Nov, 2019
我们提出了一种用于大型语言模型的联邦学习框架 FL-GLM,通过在本地客户端放置输入块和输出块以防止来自服务器的嵌入梯度攻击,使用密钥加密来防止来自对端客户端的逆向工程攻击,并采用客户端批处理或服务器分层等优化方法来提高训练效率。通过在 NLU 和生成任务上的实验结果,证明了 FL-GLM 与集中式 chatGLM 模型具有可比较的指标,验证了我们的联邦学习框架的有效性。
Jun, 2024
本文介绍了一种基于分布式身份技术的隐私保护的分散工作流,用于促进参与者之间可信的联邦学习,限制只有获得适当机构发放的可验证凭证的实体才能建立安全、经过认证的通信渠道,参与与心理健康有关的联邦学习流程。
Mar, 2021