添加效应辅助学习
本研究提出了一种称为私有教师集成(PATE)的方法,通过多个使用不同数据集训练的模型进行加密学习,从而实现对模型训练数据的隐私保护,达到最新的隐私 / 效用平衡,且适用于包括非凸模型在内的任何模型。
Oct, 2016
本文提出了基于蒸馏的方法,并采用信任加权方案,使用伪标签的无标签辅助数据促进合作学习,以达成对辅助数据的标签共识。我们证明了该方案相对于本地训练能显著提高模型性能,同时也可以识别和缓解对于众多模型的负面影响。在个体数据训练以及模型架构存在异质性的情况下,该方法表现得尤为有效。
May, 2023
通过共享差分私有合成数据,利用合成数据集进行协同学习可以帮助不同方参与者更准确地估计目标统计数据,尤其对包含代表性不足群体数据的参与者,共享合成数据特别有助于做更好的分析。
Aug, 2023
通过合作主动学习,利用多个协作者的机器学习能力,不泄露现有数据和模型,而是共享新领域的预测结果和新获取的标签,以解决隐私和安全问题、提高成本效益和资源利用效率,促进模型性能,并为进一步研究合作主动学习及其在各个领域的实际应用提供了基础。
Mar, 2024
本文提出一种不对称协作机器学习的实用方案,其中一方拥有数据,另一方仅拥有标签,提出了一种新的保护隐私的架构方案,可以有效地帮助两方合作训练深度学习模型。
Jul, 2020
在使用机器学习的背景下,提出了一种基于全同态加密方案和标签差分隐私的交互式协议,确保两个参与方在合作前能得到准确的预测改进,并通过实验证明,该方案相比完全使用全同态加密操作的协议,能够获得更快的计算结果。
Oct, 2023
如何在个人的隐私需求和安全顾虑中实现个体之间的信息交流以彼此学习?通过采用严格的统计担保,基于差分隐私(DP)控制信息泄露,我们使得保护个人隐私和实现高效社会学习成为可能。我们的研究结果揭示了在质量、学习准确性、通信成本和个体隐私保护水平之间在有限和无限信号环境下的权衡性质。
Feb, 2024
本文介绍了一种基于 ABG^n 协议的多方合作机器学习系统,采用隐私保护、安全可靠的方法,允许不同数据所有者合作进行机器学习,并设计了特定的隐私计算协议。
Feb, 2022
本文提出了一种高效的分散式(点对点)和异步算法来解决个性化模型的学习,同时满足强隐私要求,并证明了它的收敛速率。我们展示了如何使算法往常差异保持私密以保护个人数据集的信息披露,并正式分析了效用和隐私之间的权衡。实验结果表明,在非私密约束下,我们的方法大大优于以前的工作,在隐私约束下,我们可以显著改进在独立学习中得到的模型。
May, 2017