利用 SGD 处理异构噪声数据的数据学习
本文着重研究了隐私预算的问题,提出了一套训练范式,通过调整噪声比例,使更多的噪声能被纳入隐私预算,从而在保护隐私和维护计算效用之间提供一种更好的平衡方案。
Oct, 2021
本文利用现有的一阶数据异质性假设,为本地 SGD 提供了新的下界,显示了这些假设不足以证明本地更新步骤的有效性。此外,在相同的假设下,我们证明了加速小批量 SGD 的极小 - 极大优化性质,完全解决了几个问题类的分布式优化。我们的结果强调了需要更好的数据异质性模型,以了解本地 SGD 在实践中的有效性。为此,我们考虑了高阶平滑性和异质性假设,并提供了新的上界,暗示了当数据异质性较低时,本地 SGD 优于小批量 SGD。
May, 2024
本文提出了一种梯度泄露弹性分布式随机梯度下降方法,并通过差分隐私噪声控制来保证隐私安全,实验分析表明,该方法在保障差分隐私安全、模型性能和抗梯度泄露攻击性能方面优于现有方法。
May, 2023
本研究展示了在异方差分布上运行的主流主动学习技术的灾难性失败,并提出了一种基于微调的方法以缓解这些失败,同时结合模型差别评分函数提出了一个新的算法,在清除噪声示例的同时最大化准确性,表现优异于现有的主动学习技术。
Nov, 2022
该研究探讨了分散式学习框架的收敛性与混合度之间的关系,并提出了一种定量衡量梯度混合度的指标以及优化方法,通过实验证明该方法能够在计算机视觉和 NLP 等任务中提高测试表现。
Apr, 2022
本文提出了一种新的 Local SGD 方法的分析方式,去掉了不必要的假设并详细阐述了同一和异构两种数据环境下的区别,对于这两种情况,我们提高了现有理论并提供了最优步长和最优本地迭代次数。我们的界限基于一种特定于不同数据的 Local SGD 方法的新的方差概念。当 $H=1$ 时,我们恢复已知的语句以保证我们结果的紧密性。实证证据进一步验证了数据异构性对 Local SGD 性能的严重影响。
Sep, 2019
分析随机梯度下降中,小批量抽样引起的噪声和波动,揭示了大学习率可以通过引入隐含的正则化来帮助泛化的内在规律,并且可以提供一种理解随机梯度下降离散时序性对其功率规律现象的影响。
Feb, 2021