- FedZeN:通过增量 Hessian 估计实现超线性零阶联邦学习
本研究使用增量 Hessian 估计器在协同训练集中设计第一个估计全局目标曲率的零阶联邦学习算法,以达到超线性收敛,通过在 Stiefel 流形中对随机搜索方向进行采样以提高性能。我们通过使用同步的伪随机数生成器以一种通信高效和隐私保护的方 - 从复杂到清晰:通过 Clifford 的几何代数和凸性分析深度神经网络权重的解析表达
基于几何 (克利福德) 代数和凸优化,我们介绍了一种新的神经网络分析方法,显示出深度 ReLU 神经网络的最优权重是通过训练样本的外积给出的,并且训练问题可以化简为对外积特征进行凸优化,这些特征编码了训练数据集的几何结构,其中几何结构通过数 - 学习有效前沿
本文介绍了 NeuralEF:一种快速的神经逼近框架,可以可靠地预测具有异构线性约束和可变数量优化输入的有效前沿凸优化问题的结果,并将优化问题重新制定为序列到序列问题,从而加速大规模模拟并处理不连续行为。
- 超出对数凹性:总和对数凹优化的理论与算法
本文扩展了经典的凸优化理论,以最小化被称为总和对数凹函数的负对数的函数。我们展示了这些函数一般不是凸函数,但仍满足广义凸性不等式,揭示了某个被称为交叉梯度的向量的重要性,该向量一般与通常的梯度不同。因此,我们提出了反方向移动交叉梯度的交叉梯 - CORE: 分布式优化的通用随机重建算法及可证明低通信复杂度
基于 Common randOm REconstruction (CORE) 技术,本研究提出了一种可以压缩传输信息、降低通信复杂度的分布式机器学习算法,并通过应用于线性模型和非凸优化等分布式任务,设计了新的具有更低通信复杂度的分布式算法。
- 基于凸优化的神经网络系统安全滤波器设计
通过利用神经网络、凸优化和鲁棒线性模型预测控制,本研究提出了一种新的安全过滤器,以确保神经网络系统在受到建模误差的加性干扰时能保持安全,并通过在非线性摆动系统上的数值实验证明了其有效性。
- 自适应近端梯度方法用于凸优化
本文探讨了凸优化中的两个基本一阶算法,梯度下降法(GD)和近端梯度法(ProxGD)。我们着重于通过利用光滑函数的局部曲率信息,使这些算法完全自适应。我们提出了基于观察到的梯度差异的 GD 和 ProxGD 的自适应版本,因此没有额外的计算 - 一种用于结构化支持向量机的近线性时间算法
本文提出了第一个解决具有低秩因子或低树宽度和少量线性约束的二次规划的近似线性时间算法,并暗示了具有低树宽度或低秩的支持向量机的近似线性时间算法。
- 通过次线性激活神经元识别来实现高效 SGD 神经网络训练
本文提出了基于静态半空间报告数据结构的神经网络训练方法,通过几何搜索实现亚线性时间的激活神经元识别,并证明该算法可以在 O (M^2/ε^2) 的时间内收敛,其中 M 是系数范数上限,ε 是误差项。
- 随机凸优化的内存 - 查询权衡
该研究表明,任何随机第一阶段算法在单位球上最小化 $d$ 维、1-Lipschitz 凸函数时,必须使用 $Ω(d^{2−δ})$ 位内存或进行 $Ω(d^{1+δ/6−o (1)})$ 次查询,否则凸优化的最优查询复杂度需要使用四次方内存 - 关于自然演员 - 评论家算法与双层神经网络参数化的全局收敛
本文探讨利用神经网络代表评论家的自然演员评论算法的研究,并建议了一种涉及通过凸优化问题估计每个迭代中的 Q 函数的 2 层评论家参数化的自然演员评论算法,证明了我们提出的方法达到了样本复杂度的~O (1 / (ε^4 (1-γ)^4)),适 - 基于递归割平面法的内存受限凸优化算法
我们提出了一系列递归割平面算法,用于解决具有受限内存的可行性问题,这些算法可以用于一阶凸优化。
- 结构化预测中的部分推断
本文探讨了结构化预测中的部分推断问题,采用生成模型方法,考虑在图形标签空间中最大化一种包括一元和成对潜势的评分函数,采用两阶段凸优化算法进行标签恢复,并提供了可证明保证部分恢复的统计和拓扑要求。
- 变分高斯过程扩散过程
本文提出了一种基于连续指数族描述的高斯变分过程的参数化方法,利用凸优化算法来解决具有非线性扩散过程先验的潜在过程的生成模型下的概率推断和学习问题。
- 广义平滑下的凸优化和非凸优化
本文介绍了一种新的非均匀光滑条件下的优化方法,并开发出一种简单但有效的分析技术来限制沿轨迹的梯度,从而获得更强的凸优化和非凸优化问题的结果。我们通过这种新方法证明了(随机)梯度下降和 Nesterov 加速梯度法在这种一般的光滑条件下的收敛 - 通过二阶方法实现联邦经验风险最小化
本文提出一种内点法(IPM),用于在联合学习设置下解决一般的经验风险最小化(ERM)问题,展示了每次迭代 IPM 的通信复杂度具有 O(d ^ {3/2})的上限。
- 具有上下文模型的 Levin 树搜索
本文介绍了一种基于 Levin Tree Search (LTS) 算法的 LTS+CM 算法,使用参数化的上下文模型并在具有凸保证的基础上优化策略。此算法在 Sokoban,The Witness 和 24 滑动方块 (STP) 等多个问 - 受限领域中的无学习率贝叶斯推理
通过利用凸优化中的 coin betting 思想,将约束取样视为概率测度空间上的镜像优化问题,我们介绍了一套完全不依赖学习率的基于粒子的约束取样算法,并引入了现有约束取样算法的统一框架。数值实验表明,我们的算法在清单、公平约束、后选推理等 - 基于二阶方法的更快差分隐私凸优化
本文研究了使用一阶和二阶优化方法的隐私保护凸优化问题,其中开发了一种基于正则化的三次牛顿法的私有算法,并在逻辑斯蒂回归问题上获得了性能优越性。
- 概率单纯形上的凸优化
本文提出一种新的迭代算法,Cauchy-Simplex,用于概率单纯形上的凸优化问题。该算法具有简单易用、收敛速度快等优点,并应用于在线学习问题,证明了平均遗憾的收敛性。