Dec, 2023

基于泛化速率和删除容量的认证最小化反学习

TL;DR我们研究了 $(\epsilon,\delta)$- 认证的最小化机器取消学习问题,提出了一个基于总 Hessian 完整的 Newton 更新和差分隐私中借用的高斯机制的新算法。我们推导了三种不同损失函数情况下的泛化率,并提供了删除容量来保证所需的总体风险能够保持,只要删除的样本数量不超过导出的数量。