- 具有差分隐私的黎曼流形上的联邦学习
提出了一个基于 Riemannian 流形的差分隐私技术的私有联邦学习框架 (PriRFed),分析了隐私保证的同时确立了收敛性属性,是第一个具有隐私保证和收敛结果的基于 Riemannian 流形的联邦学习框架
- 通过最优输运协调上升变分推断用于对数凹测度的收敛性
均场变分推断(VI)是找到相对熵意义下到给定的高维概率测度 $\rho$ 最接近的分布(分解测度)的问题。本文证明了在对数凹密度 $\rho$ 情况下,均场变分推断 CAVI 的收敛性。若附加条件 $\log \rho$ 具有 Lipsch - 正则化梯度剪裁能可靠地训练宽且深的神经网络
我们证明了基于正则化的梯度剪裁算法可以收敛于深度神经网络损失函数的全局最小值,只要网络具有足够的宽度,并且通过实证证明这一算法在深度学习中与现有的启发式方法相竞争,因此这一算法构成了一种新的严谨深度学习方法。
- 张量网络约束核机器作为高斯过程
张量网络(Tensor Networks)被用于通过限制模型权重来加速核机器,在概率参数上置于 i.i.d. 先验下,我们证明了规范多项分解(CPD)和张量列车(TT)约束的核机器的输出可以恢复到一个完全特征化的高斯过程(Gaussian - OT-Flow 样本生成的收敛性分析
深度生成模型 OT-Flow 的收敛性研究及蒙特卡洛方法在训练中的应用
- 基于前向梯度级联法的高效深度神经网络训练优化
使用前向模式自动微分进行梯度计算的 Frank-Wolfe 算法具有次线性收敛速度,并优于使用后向传播方法的标准 Frank-Wolfe 算法,同时研究了深度神经网络和梯度计算的性能。
- 理解具有条件最优输运的无限深度和宽度的 ResNet 的训练
该研究探讨深度神经网络训练中的梯度流收敛问题,并提出了一种基于条件最优传输距离的训练模型,通过梯度流方程的良定性和多项式 - Lojasiewicz 分析证明了在适当的初始化条件下,梯度流可以收敛于全局极小值。
- FAGH:使用近似的全局 Hessian 加速联邦学习
本文提出了一种加速联邦学习训练的近似全局 Hessian 方法(FAGH),通过利用近似全局 Hessian 的曲率加速全局模型的收敛,从而减少通信轮次和训练时间,并在训练和测试损失以及测试准确率方面优于几种最先进的联邦学习训练方法。
- 二阶优化中的模糊超参数更新
这篇研究介绍了一种混合方法,用于加快二阶优化中的收敛速度。介绍了对角黑塞矩阵的在线有限差分近似方法,以及对多个超参数的模糊推理。取得了竞争力的结果。
- TD 学习与线性函数逼近的简单有限时间分析
TD 学习在马尔可夫采样下,通过线性函数逼近存在有限时间收敛性的研究证明。通过新颖的两步论证方法,我们证明了在常数步长和标准选择下,TD 学习生成的迭代在期望上保持统一有界。这种方法大大简化了现有证明,并推测我们归纳证明技术将在更复杂的随机 - 关于度量预条件对一般参数化机器学习模型和通过领域适应进行迁移学习的影响
通过类似于 Fatou 引理的方法,我们研究了理解在数据的小改动下学习代理的收敛性的新技术,并展示了其在一般机器学习任务和领域自适应传递学习中的相关性和应用。
- 隐私漏斗的高效凸差分求解器
提出了一种高效的隐私漏斗(PF)方法求解器,利用其凸凹差分(DC)结构。该求解器在已知分布和未知分布情况下均适用,能够有效地平衡隐私和效用的折衷,并满足 PF 的基本马尔可夫关系。
- 关于无需数据相似性的联邦学习算法收敛性的研究
本文提出了一种新颖而统一的框架,用于分析联邦学习算法的收敛性,无需数据相似性条件,并应用于著名联邦学习算法,得到了不依赖于数据相似性条件的固定步长、递减步长和步长衰减的精确表达,从而在变化的数据相似性条件下,显著提高了联邦学习算法的收敛速度 - 梯度对齐用于跨域人脸反欺诈
介绍了一种新颖的学习目标 GAC-FAS,该目标鼓励模型收敛到一个最优的平坦最小值而不需要额外的学习模块,通过在每个域上识别升序点并调节在这些点的泛化梯度更新,使得模型对领域变化具有稳健性。在具有挑战性的跨领域 FAS 数据集上进行了严格测 - 深度强化学习:凸优化方法
本研究针对具有连续状态和动作空间的非线性系统考虑强化学习问题,提出了一种基于两层神经网络逼近最优 Q - 函数的序列学习算法,通过凸优化确保每个序列的权重得到最优化,针对稳定的非线性系统,证明了该算法的收敛性,并且训练得到的神经网络参数收敛 - CLLMs:一致性大型语言模型
通过改进 Jacobi 解码方法,使其能够在单次迭代中准确预测多个令牌,并在任何状态下快速收敛到固定点,从而实现了在生成速度和生成质量上的显著提升。
- 蒙特卡洛马尔可夫链蒙特卡洛在期望最大化中的随机近似
使用异步偏置的 MCMC 步骤分析了 SAEM 的渐近性和非渐近性,特别是偏置的影响,并在合成和真实数据集上进行了与渐近无偏算法 (MALA) 和渐近有偏算法 (ULA) 的数值实验比较。实验结果表明,ULA 在 Langevin 步长选择 - 基于梯度的离散采样与自动周期调度
多模离散分布的高效准确采样中,我们提出了一种自动循环调度方法,其中包括循环步长调度、循环平衡调度和自动调整超参数的方案,并证明了其在一般离散分布上的非渐近收敛性和推理保证。广泛实验证明了该方法在采样复杂多模离散分布方面的优势。
- C-GAIL: 使用控制理论稳定生成对抗模仿学习
Generative Adversarial Imitation Learning (GAIL) 使用强化学习来优化 GAN-like 判别器的奖励信号,但存在训练不稳定的问题。本文通过控制论分析 GAIL,提出一种新的控制器 'C-GAI - 连续搜索空间的活动水平集估计与理论保证
在连续搜索空间中,本研究提出了一种新的算法,通过构建一个置信度测量函数的获取函数,无需离散化直接进行工作,具有理论上的收敛性和在合成和真实数据集上优于现有方法的性能。