- 上下文动态定价:算法、优化和局部差分隐私约束
研究了上下文动态定价问题,探讨了需求模型、遗憾上限的最优化和隐私保护对动态定价的影响。
- 通过区块自助法对差分隐私随机梯度下降进行不确定性量化
提出了一种基于局部差分隐私的新型块自助法用于随机梯度下降,该方法具有可计算性和不需要调整隐私预算的特点,可以广泛应用于估计问题,并通过模拟研究证明了其有效性和有限样本性质,并成为非隐私 SGD 的简单替代数值工具。
- 自适应在线贝叶斯频率分布估计与局部差分隐私
我们提出了一种新颖的贝叶斯方法,用于局部差分隐私 (LDP) 框架下有限类别频率分布的自适应在线估计,并通过后验抽样进行贝叶斯参数估计,使基于获得的后验样本调整 LDP 的随机化机制。我们提出了一种基于随机化机制的 LDP,它使用类别子集作 - 安全聚合无法抵御成员推断攻击
在这篇论文中,我们通过将其视为每个本地更新的局部差分隐私机制,深入探讨了 SecAgg 的隐私影响。我们设计了一种简单的攻击方式,其中一个对抗性的服务器试图在 SecAgg 下的单一训练轮中辨别客户端提交的两个可能的更新向量之一。通过进行隐 - 解读本地差分隐私、平均贝叶斯隐私和最大贝叶斯隐私之间的相互作用
我们综合研究引入了贝叶斯隐私并深入探讨了局部差分隐私及其贝叶斯对应之间错综复杂的关系,揭示了新的有关效用和隐私之间的权衡。
- 隐私与公平:信息混淆用于本地差分隐私的公平表示学习
通过引入信息瓶颈进行本地差分隐私的信息混淆方法,该研究旨在开发和分析一种理论框架,实现公平表示学习,并展示 LDP 随机化器在编码过程中提高公平性的能力。基于所提出的方法,我们进一步发展了一种同时实现 LDP 和公平性的变分表示编码方法,并 - 具有本地私有约束的在线分布式学习
在线的条件分布估计问题,使用局部差分隐私处理无界标签集,最小化累积 KL 风险,同时解决假设选择问题。
- ICLRFedGT:具有可扩展图变换器的联邦节点分类
提出了一种可扩展的 FedGraphTransformer(FedGT)方法,通过混合注意力机制解决了分布式图神经网络在局部子图更新中缺失链接的问题,以及子图异构性和数据隐私保护的问题。实验证明了 FedGT 的优越性。
- 最优样本本地隐私假设选择和互动的可证优势
我们研究了局部差分隐私约束下的假设选择问题,设计了一种使用较少样本的 ε- 局部差分隐私算法来选择假设,该算法的样本复杂度趋近于最优,并且通过定义关键查询的概念为统计查询算法提供了一种新的方法。
- 多维局部差分隐私对公平性的影响
自动决策系统在人们生活中的重要决策中越来越普遍地使用。由于操作数据的敏感性以及由此产生的决策,对这些技术的适当使用需要解决一些道德问题,特别是公平性和隐私保护。本文通过在多个敏感属性(即多维数据)存在的情况下研究本地差分隐私(LDP)对公平 - 智能电表数据共享的局部差分隐私
本文提出了一种新颖的局部差分隐私方法(称为 LDP-SmartEnergy),利用滑动窗口和随机响应技术,在不揭示个人用户的设备使用模式的情况下,促进了随时间共享设备级能耗数据。评估结果表明,与基准方法相比,LDP-SmartEnergy - 局部隐私条件下的因果探索
本文研究了局部差分隐私机制,并比较了这些机制在数据混淆时提供的隐私与因果学习算法生成的因果结构的准确性之间的权衡,为选择合适的局部差分隐私协议进行因果发现任务提供了有价值的见解。
- 分布式联邦图匹配的差分隐私预训练模型融合
通过介绍 PrivFusion,一种基于图结构的隐私保护模型融合架构,本文在维护模型性能的同时确保模型隐私,解决了模型融合中的隐私保护问题,并采用混合本地差分隐私机制和分散式联合图匹配来提高模型隐私性,在随机化噪声的影响下保留融合模型的实用 - 定向图中分布式在线学习的本地差分隐私梯度跟踪
本研究提出了一种基于梯度追踪的本地差分隐私分布式在线学习算法,通过确保严格的本地差分隐私,该算法在均方意义下收敛于精确的最优解,即使在迭代次数趋向无穷的情况下,累积隐私预算也是有限的。在实验中,该算法在多个基准机器学习应用中表现良好,并且在 - 本地差别隐私图嵌入
本研究提出了一种名为 LDP-GE 的隐私保护图嵌入框架,通过局部差分隐私机制对节点数据进行模糊处理,并采用个性化 PageRank 作为节点表示的相似度度量,理论分析和实验证明 LDP-GE 在节点分类和链接预测任务中具有良好的隐私和效用 - 局部差分隐私模型中稀疏线性回归的改进分析
在本文中,我们重新考虑了局部差分隐私(LDP)模型下稀疏线性回归的问题。我们提出了一种创新的非交互式局部差分隐私(NLDP)算法,该算法在数据服从亚高斯分布的情况下,为估计误差提供了上界,并且在服务器有额外公开但未标记数据的情况下,误差上界 - ICCVLDP-Feat:带有局部差分隐私的图像特征
现代计算机视觉服务经常要求用户与不受信任的服务器共享原始特征描述符,这带来隐私风险,为解决此问题,研究人员最近提出了通过将图像特征嵌入一个仿射子空间中从而使其包含原始特征及对抗特征样本来实现特征私有化。本文提出了两种新的反演攻击方法,证明从 - 用于时间序列数据分析的混洗差分隐私联邦学习
为了确保客户隐私,可信的联邦学习旨在实现最佳性能。现有的隐私保护联邦学习方法大多针对图像数据,缺乏对时间序列数据的应用,而时间序列数据在机器健康监测、人体活动识别等方面具有重要的应用。为了解决这些问题,我们开发了一种适用于时间序列数据的保护 - ICML局部差分隐私下伯努利奖励的汤普森抽样
本文研究了带本地差分隐私保证的多臂老虎机问题的遗憾最小化问题。作者提出了三种机制,分别为线性,二次和指数机制,并推导了每种机制下 Thompson Sampling 算法的随机遗憾边界。最后,本文通过模拟证明了不同机制在不同隐私预算下的收敛 - 从私有化数据中训练生成模型
本文提出了一种基于局部差分隐私的生成对抗网络训练方法,通过熵正则化 Wasserstein 距离的组合使用来降噪数据分布,有效地缓解了正则化偏差和隐私噪声效应。