关键词differentially private learning
搜索结果 - 10
- ICML神经崩溃与差分隐私:NoisyGD 实现近乎完美的表示学习的奇异行为
通过在公共数据集上进行预训练的大规模表示学习显著增强下游任务中的差分隐私学习,神经坍塌现象的理论解释,研究不同预训练模型下的特征质量及差分隐私微调的鲁棒性问题,以及采用特征归一化和维度降低方法改善差分隐私微调的策略。
- ICLR从聚合响应中学习:实例级和包级损失函数
由于隐私关切的增加,在许多实际应用中,培训数据在与学习者共享之前被聚合,以保护用户敏感响应的隐私。本文研究了两种用于从聚合响应中学习的自然损失函数:基于包的损失和基于实例的损失。我们展示了实例层面的损失可以被视为包层面损失的正则化形式。我们 - 私有真正持久稳健预测
私密永恒预测(Private Everlasting Prediction,PEP)是一种实现差分隐私学习的模型,它通过黑盒访问 “预测神谕” 来预测来自基础分布的无标签样本的标签,并改进了前期工作的鲁棒性和样本复杂性。
- 利用公共的表示进行私有的迁移学习
通过实证研究公共数据如何融入差分隐私学习并从公共数据中学习共享表示,我们理论上研究了共享表示如何改进私有学习,并探索了线性回归中的两种常见迁移学习场景,结果帮助了解公共数据在不同私有迁移学习中的益处。
- DP-Mix: 基于 Mixup 的差分隐私学习数据增强
通过对数据进行增强,尤其是在训练数据有限的情况下,数据增强技术可以显著提高计算机视觉模型的泛化能力。然而,由于不同 ially private learning 方法固有的假设,即每个训练图像对学习模型的贡献是有限的,这些技术与不同 ial - 大型语言模型能成为强差分私有学习器
使用预训练的语言模型以及非标准化超参数和 fine-tuning 目标结合 DP 优化技术,可在中等规模的语料库上获得胜过强基线和同一隐私预算下的 DP-trained 模型的 NLP 模型。我们还提出了一种内存节省技术来解决在大型 Tra - 在卫生保健领域进行差分隐私预测:追踪您的长尾
本研究研究了隐私保护机制对健康医疗领域数据挖掘和机器学习的影响和局限性,旨在通过使用最新的差分隐私数据挖掘算法来训练隐私保护的模型,并对这些模型进行全面的实证研究。该研究还探讨了隐私保护学习在医疗保健中的好处和成本。
- 在线和差分隐私学习的平滑分析
该研究应用平滑分析框架和括号数的概念,探讨在线对抗和差分隐私学习中的可学习性,并提出了基于 VC 维度和括号数以及扰动程度的损失保证和隐私错误边界方法。
- NIPS实用差分隐私的三种工具
在实际数据中进行差分隐私学习存在挑战:隐私保证难以解释,对私有数据进行的超参数调整会降低隐私预算,通常需要进行特殊的隐私攻击来测试模型的隐私性。本文提出了三种工具来使差分隐私机器学习更加实用:(1)可在训练前以集中方式进行的简单的健全性检查 - ICML使用集合图模型差分隐私学习无向图模型
研究如何使用 Laplace 机制以不确定的理论基础为代价,在一个期望极大化框架内,通过使用集体图模型的形式化方法对真实充分的统计数据进行推理,以解决学习离散的,无向的图模型的问题,以在合成数据和真实的人员流动数据案例研究中获得比竞争方法更