- 扰动约束的序列模型编辑
对于大型语言模型的连续学习提出了一个名为 PRUNE 的框架,通过应用条件数的限制来保护模型的一般能力,从而在顺序模型编辑中有效地维持了编辑性能。
- 迭代求解线性系统的细粒度分析与更快算法
通过调研迭代方法在解决大型线性方程组时受到问题特定条件数量的显著影响,文中提出了一种称为谱尾条件数的复杂性概念,并通过 Sketch-and-Project with Nesterov's acceleration 算法保证了在给定矩阵和向 - 求解参数化二阶椭圆型偏微分方程的有限元算子学习方法的误差分析
本论文通过对经典有限元逼近的一种不依赖数据的操作学习方法 —— 有限元算子网络 (FEONet) 进行理论分析,首先确定了该方法在具有一般二阶线性椭圆型偏微分方程与神经网络逼近参数的收敛性。其次,推导出了自伴随情况下的显式误差估计,验证了解 - 不完全统计扰动:私有最小二乘的稳定估计器
我们提出了一个针对普通最小二乘问题的样本和时间高效的差分隐私算法,误差线性依赖于维度并且与 $X^ op X$ 的条件数无关,其中 $X$ 是设计矩阵。我们的算法具有接近最优的准确性保证,适用于具有有限统计杠杆率和有界残差的任何数据集。
- 显式条件稀疏转换学习
我们的研究论文提出了一种新的稀疏变换模型,通过对学习到的变换的数据表示质量和条件数进行显式控制,有效地改善了数值行为。
- 通过特征谱分析核无背脊回归中的过拟合特性
我们推导了核矩阵条件数的新界限,并利用它来增强固定输入维度下过参数化区域中核岭回归的非渐近测试误差界限。对于具有多项式谱衰减的核函数,我们得到了先前工作中的界限;对于指数衰减,我们的界限是非平凡和新颖的。我们关于过拟合的结论有两个方面:(i - 物理专家神经网络的预处理
通过使用条件数作为度量标准,证明条件数与错误控制和收敛性有关,并提出了一种利用预处理提高条件数的算法。18 个 PDE 问题的评估显示了我们方法的卓越性能,特别是在其中 7 个问题中,我们的方法将误差减少了一个数量级。这些实证发现验证了条件 - 球面核插值的加权谱滤波器:噪声数据的预测准确性估计
通过引入加权谱滤波方法来减小核矩阵的条件数并稳定核插值,尤其适用于处理嘈杂数据,在地球物理图像重建和气候图像处理方面具有应用潜力。
- 噪声适应(加速的)随机重球动量
我们在光滑、强凸的设置中分析了随机重球 (SHB) 动量的收敛性,证明了当小批量大小大于某个阈值时,SHB 可以获得加速收敛率。特别地,在具有条件数 κ 的强凸二次函数中,SHB 伴随标准步长和动量参数具有 O (exp (-T/√κ) + - 何时可以信赖特征选择?--I:基于条件的 LASSO 和近似难度的分析
鉴于 AI 技术在计算中的应用以及其潜在的幻觉和非鲁棒性,可信度算法已经成为一个关注点。然而,对于许多经典方法的可信度仍未得到很好的理解。本文针对科学、统计学、机器学习等领域中的一个经典问题,特征选择问题,提出了 LASSO 优化问题。尽管 - 重访线性回归的量子算法:无数据依赖参数的二次加速
线性回归是最基本的线性代数问题之一,本研究提出了一个运行时间为 O (ε^(-1) * sqrt (n) * d^(1.5)) + poly (d/ε) 的量子算法,可以在不依赖数据相关参数的情况下,提供 n 的二次量子加速效果,同时还将结 - 相关噪声在差分隐私学习中明显优于独立噪声
在研究中,我们表征了任意关联函数的渐进学习效用,并给出了线性回归的精确分析边界以及对于一般凸函数问题的凸优化问题的解。我们通过这些界限展示了关联噪声相对于基本 DP-SGD 在问题参数(如有效维度和条件数)上的可证明改进。此外,我们的近乎最 - 通过缩放梯度下降可证明地加速病态低秩估计,即使过度参数化
本研究论文介绍了一种名为 ScaledGD 的新算法,通过合适的预处理能够快速收敛于低秩对象,并在多种任务中保持梯度下降的低迭代成本,同时无论条件数如何,都能以恒定速率线性收敛,突出了在加速非凸统计估计中适当预处理的能力。
- 多视几何中的条件数、相对姿态估计的不稳定性和 RANSAC
本文介绍了一个使用计算代数和黎曼几何工具来分析多视角几何中最小问题的数值条件的通用框架。我们从标准的 5 点或 7 点随机采样一致性(RANSAC)算法在相对姿态估计时的失败情况出发,即使在没有离群值和足够数据支持假说的情况下。我们认为这些 - 深度学习中的分量反向误差攻击
本研究从数值分析的角度出发,提出了一种新的类别攻击算法,并研究了使用分量条件数量化易感性。这种攻击在手写文件或印刷文本中广泛适用,揭示了安全风险。
- 多任务学习的独立成分对齐
本文提出了一种名为 Aligned-MTL 的新型多任务学习优化方法,通过条件数作为优化稳定性的标准,同时实现预定义任务权重下的优化,并在语义和实例分割、深度估计、表面法向估计和强化学习等多个基准测试中实现了优化结果的一致改进。
- ICML在线主动回归
通过在线化算法实现积极回归问题的解决,利用较少的标签查询,实现收到的数据点的回归,提出新的算法解决问题。
- 梯度下降在较低限制割线不等式和上误差界下是最优的
本研究重点关注函数满足较小限制的割线不等式和较大上限误差的函数类,可以在各采样梯度上分别满足一组简单条件,在所有一阶算法中,通过梯度下降法可以完全优化此类函数,从而导致收敛速率的下限。
- AAAI超越 NaN:在不可行性面前的优化层恢复能力
该研究分析了神经网络中嵌入 optimization layers 的弱点,提出了一种防御方法,防范了 undefined output 对关键应用造成的潜在威胁。
- 非凸强凹极小 - 极大优化的复杂性
本文研究非凸强凹(NC-SC)平滑极小值问题的近似稳定点的复杂度,在一般和平均平滑有限和设置中建立了非平凡的较低复杂度下界。我们提出了一种通用的加速方案,使用现有的基于梯度的方法来解决一系列的精心制作的强凸 - 强凹子问题,进而缩小了复杂度