BriefGPT.xyz
Ask
alpha
关键词
non-smooth loss functions
搜索结果 - 2
保护隐私的联邦原始 - 对偶学习用于模型稀疏化的非凸和非平滑问题
提出了一种用于非凸和非平滑联邦学习问题的新型原始 - 对偶算法,结合双向模型稀疏化和差分隐私,以保证强隐私,通过真实数据上的大量实验验证了该算法的有效性和比某些最先进的联邦学习算法更出色的性能,并验证了所有分析结果和特性。
PDF
8 months ago
平方根 Lipschitz Loss 下的一致收敛
本文研究基于 Rademacher 复杂度和平方根标量损失函数的 Lipschitz 常数,以高斯数据的泛化一致性保证为例,并处理了广泛的平方根 Lipschitz 损失函数的类别,包括适用于相位恢复和 ReLU 回归的非平滑损失函数,从而
→
PDF
a year ago
Prev
Next