- 强凸性和利普希茨 Hessian 下的随机零阶优化:极小 - 最大样本复杂度
在在线学习中,优化随机零阶反馈下的凸函数一直是一个主要而具有挑战性的问题。本文考虑了仅能对目标函数进行噪声评估的情况下,对二阶平滑和强凸函数进行优化的问题;通过提出匹配的上下界,第一次对最小化最大简单后悔的速率进行了紧密的刻画。我们提出了一 - ICML有限和优化的量子算法与下界
通过量子计算,我们提出了一个具有改进复杂性的量子算法来解决有限和优化问题,使得我们可以找到一个 ε- 最优解点。
- MM关于随机梯度方法的最终迭代收敛性
用 “随机梯度下降”(SGD)而无需替换的 “洗牌梯度方法”,基于曲率刻画关于目标值的收敛速度,证明其对于目标值的最优性。
- 带有延迟反馈的强化学习优化中的改进后悔度
我们研究了具有延迟反馈的强凸波段优化问题,通过精细地利用延迟波段反馈的阻塞更新机制,我们的算法改进了损失边界并将其与延迟设置下的传统波段梯度下降(BGD)算法相匹配。
- 广义偏好优化:一种离线对齐的统一方法
离线偏好优化通过直接从离线数据微调大型模型,已在最近的对齐实践中证明了其有效性。我们提出了广义偏好优化(GPO),一种由一类凸函数参数化的离线损失函数家族。GPO 实现了对偏好优化的统一视角,包括现有的算法,如 DPO、IPO 和 SLiC - 统一框架 RYU:构建安全球的终极方案
该论文提出了一种名为 “RYU” 的新框架,用于构建安全的球体,即确保包含目标优化问题的对偶解的区域。该框架在标准设置下集中于成本函数为两项之和的情况,这两项分别为闭合的、适当的、凸的利普希茨平滑函数和闭合的、适当的、凸的函数。RYU 框架 - 超越 MLE:文本生成的凸学习
基于凸函数的训练目标提供了一种新颖的方法,使得文本生成模型能够聚焦于高概率输出,同时增强了自回归模型与非自回归模型的生成能力。
- 自适应平滑算法用于凸复合优化
我们引入自协调平滑的概念,用于最小化两个凸函数的和:第一个是光滑的函数,第二个可以是不光滑的函数。我们的方法自然地从称为部分平滑的平滑近似技术中得出。我们的方法的重点在于所得问题结构的自然特性,它为我们提供了一个变量度量选择方法和一条特别适 - 凸优化的线搜索
提出了两种使用凸性来加速收敛的具有指导意义的准确线搜索算法,其中一种使用函数查询,而另一种还使用梯度查询。在一些凸函数上的实验证实了这些算法通常快于其凸单峰函数对应的算法超过两倍,并提供了收敛保证。
- 基于 DC 规划的子模函数最小化差异
介绍了 DC 算法及其变种算法,并将其应用于 DS 问题的 DC 程序中,并将收敛性质与 DS 问题的收敛性质相连结,取得了比现有基线更好的结果。
- 针对零阶对抗性 Bandit 凸优化的改进遗憾
以信息论为基础,改进探索性分布以在零阶对抗性 bandit 凸优化的 minimax regret 的信息理论上界上证明其为 O (d^{2.5} 根号 n 对数 (n)),并提高 Bubeck 等人 (2017) 的 O (d^{9.5} - 无替换的 SGD 缩小收敛差距
本文探讨了不带替换采样的随机梯度下降在模型训练中的应用,并对凸函数的 SGD 收敛速率进行了分析。我们证明,当函数是二次型时,SGD 不带替换采样的收敛速率为 O (1/T^2 + n^2/T^3),同时我们也提出了强凸函数收敛速率的新的下 - MM异构数据本地 GD 初步分析
本文首次对局部梯度下降进行收敛性分析,用于平滑和凸但任意函数的平均值最小化问题,在联邦学习中涉及隐私数据和异构性。我们证明在低精度情况下,该方法的通信复杂度与梯度下降相同。
- 通过输入凸神经网络实现最优传输映射
本文提出了一种新的、原则性的方法来从样本中学习两个分布之间的最优传输,学习方法基于最优传输理论并涉及解决一个新的极小极大优化问题,通过最优 Kantorovich 势量级诱导最优传输映射,借鉴最近在输入凸型神经网络领域的进展,提出了一个新的 - ACLACL2 (r) 中的凸函数
本文在 ACL2 (r) 平台上对 R^n 进行了形式化处理,并着重研究了凸函数的一组公理和证明,包括了一组关于引理的等价条件,并且探讨了证明工程的问题。
- Hamiltonian Descent 方法
研究了一种基于动力学系统模拟的优化方法,该方法使用常量步长和一阶梯度信息,在更大的凸函数类中实现线性收敛性,包括那些在其极小值点处可能具有奇异或未有界的二阶导数,该方法的动力学梯度映射可以设计成以凸共轭的形式整合信息,允许在非平滑或非强凸的 - 对数和指数神经网络和多项式模型在凸性与对数 - 对数凸性数据中的应用
本文提出了一种使用神经网络和激活函数来实现凸函数和对数对数凸函数的通用逼近器,其中得到的模型可通过凸优化和几何规划来有效设计和优化。
- 随机条件梯度方法:从凸优化到子模最大化
该论文提出了基于随机条件梯度方法的优化问题求解算法,用于解决大规模维度下的凸函数、连续子模型等多种问题,并证明了当问题维度高时,该方法较与传统的随机梯度下降法更加稳定,同时计算时间复杂度也得到了有效降低。
- 一种用于无导数平滑随机凸优化的加速方法
本文研究优化问题中目标函数存在不确定的噪声干扰,提出了基于导数的无导数算法,考虑了稀疏向量情况下使用 1 范数正则化的优化模型。
- 随机区块立方牛顿法
通过随机块三次牛顿方法和近端算子,成功优化了三个可微,二次可微和非光滑项的凸函数求和问题,并在多个机器学习问题中实现了成功的优化。