- 学习到的近端网络用于逆问题中的先验知识
学习的近似算子网络提供一种通用的、无监督的、表达力强的近似算子,可用于具有收敛性保证的一般逆问题。
- 预处理联邦学习
在本文中,我们提出了基于局部适应性和服务器端适应性的新的通信高效的联邦学习算法,通过使用新型协方差矩阵预处理器,我们的方法在理论上提供了收敛保证,并在 i.i.d. 和非 i.i.d. 设置下取得了最先进的性能。
- 一致性模型的收敛保证
我们给出了一种新型一步生成模型的收敛保证,这种模型被称为一致性模型(CMs),可以在一步内高效地从任何现实数据分布中进行采样并产生与弥散模型生成的样本相媲美的结果。
- 可证明的个性化和强健联邦学习
本文提出采用简单的基于阈值的聚类算法以及本地客户端梯度的方法来解决联邦学习个性化问题,在保证最优收敛保障的同时,算法具有健壮性。
- 随机自然阈值算法
本文提出并讨论了随机自然阈值算法的收敛性保证,通过将自然阈值从具有线性测量的确定性版本扩展到具有一般目标函数的随机版本。我们还对线性和非线性测量进行了各种数值实验,以展示 StoNT 的性能。
- 基于 GAN 反演的线性收敛算法用于逆向工程欺骗行为
本文提出了一种基于 GAN 和稀疏恢复的欺骗反向工程框架,为此提供了确定性线性收敛保证,并在多个非线性数据集上展示了该方法的优点。
- 通过压缩与重要性抽样提高加速联邦学习
本文提出了一种 Federated Learning 的完整方法,该方法包括 Local Training,Compression 和 Partial Participation,实现了所考虑的收敛保证的最新状态,并通过实验展示了该方法的优 - 黑盒变分推断的可证收敛性保证
针对黑盒变分推理的随机优化的挑战,该论文提出了一种基于重参数化的梯度估计方法来保证其收敛性,并给出了针对密集高斯变分族收敛的新的收敛保证和独特噪声边界.
- 一些针对强凸优化的次梯度方法的原始 - 对偶理论
本文针对强凸但潜在不光滑非 Lipschitz 的优化问题,提出了新的等价的对偶描述,使得 $O (1/T)$ 收敛保证适用于几乎任何步长选择和一系列非 Lipschitz 病态问题,并提供了优化证书。
- FAVAS: 带异步客户端的联邦平均
本文提出了 FAVAS 算法,采用集中式的异步联邦学习方式,在资源有限的环境下训练深度神经网络,并提供算法的收敛保证和实验结果的比较。
- 重温梯度剪裁:随机偏差和紧密收敛保证
本文研究了梯度裁剪在随机梯度下降中的应用,给出了裁剪阈值对收敛结果的影响和其上下界,进一步阐述了裁剪机制的缺陷及解决方案。
- 随机梯度内点算法求解光滑约束优化问题
该研究提出了一种基于随机梯度下降法的内点算法,用于最小化一个连续可微的目标函数,该函数可能不是凸函数,同时受到边界约束。该算法唯一之处在于通过计算随机梯度估计来计算搜索方向,以及通过正面和消失的邻域参数序列来定义可行区域内部邻域,从而迫使迭 - 带有最佳效率和实用特性的约束优化方法
本文介绍了两种新的 Frank-Wolfe 算法变体,用于随机有限和最小化。这些方法在凸和非凸目标函数方面,都具有最佳的收敛保证。同时,本文提出的两种方法都不需要永久收集大批量数据和完整确定性梯度,可用于优化机器学习等领域中的结构约束问题。
- 关于正交约束无光滑组合优化问题的块坐标下降方法
提出了一种新的基于块坐标下降(OBCD)的非光滑复合优化方法,该方法能够在正交约束下解决一般的非光滑复合问题,是具备收敛保证的可行方法。
- 通过概率逻辑屏障实现安全的强化学习
本文介绍了一种新的模型基础的安全增强学习技术 Probabilistic Logic Policy Gradient (PLPG),该技术使用概率逻辑编程将逻辑安全约束建模为可微分函数,可以与任何策略梯度算法无缝集成,同时提供相同的收敛保证 - 具有证明的固定时间收敛和快速逃逸非退化鞍点的广义梯度下降
本文介绍了一种基于梯度的凸优化算法,提出了一种广义框架用于设计具有最强收敛保证的加速优化算法,该算法进一步扩展到一类非凸函数,具有 Polyak-Łojasiewicz 不等式,并且证明了 GenFlow 算法和其动量版本可以在固定时间内收 - 泛状态和行为空间上的政策优化
本文将最近开发的策略镜像下降方法进行了实质性的推广以处理一般状态和行动空间下的强化学习(RL)问题,引入了新的方法将函数逼近与此方法相结合,从而完全不需要使用显式策略参数化。此外,还提出了一种新的政策对偶平均方法,其中可能可以应用更简单的函 - FedPop:个性化联邦学习的贝叶斯方法
本文提出 FedPop 方法,将个性化联邦学习重新定义为种群建模范式,利用群体参数和随机效应解释数据异质性,并通过马尔科夫链蒙特卡洛方法引入新类联邦随机优化算法提供不确定性量化,从而满足新客户、小观测样本数据的实时学习需求。
- NeuPL: 神经群体学习
本篇论文提出了一种叫 Neural Population Learning(NeuPL)的算法,该算法实现了在游戏中学习多种不同策略,可以有效解决实际游戏中的两个问题,即预算有限时训练不充分和重复学习基础技能的问题,并通过多种测试验证了该算 - KDD应用稀疏分组 Lasso 的自适应优化器在 CTR 预测神经网络中的应用
本文提出了一种将稀疏组套索的正则化器添加到深度学习中的一类自适应优化器中,经过实验验证在同等稀疏度下模型性能得到了显著提升。该方法在广告点击数据集上应用效果显著。