- ICML基于池的批次主动学习中的快速速率
本文在 batch active learning 场景下,提出了一种解决 informativeness 和 diversity 之间权衡问题的算法,理论上可以在 pool-based active learning 中得到最优结果,并且 - 异质多层网络中的全局及个性化社区发现
该研究探讨了不同实验条件或应用场景下观测到的多网络数据集的社区检测问题,并提出了基于随机块模型的多层网络模型,给出了全局结构和每层社区结构的最小最大速率及其算法,结果显示其在模拟示例和真实数据集上都具有很好的效果。
- 连续武装赌博机:函数空间视角
该论文研究了在更一般的平滑条件下使用 continuum-armed 摇臂赌博机优化未知的目标函数,包括优化 Lipschitz 连续的目标函数和具有 Besov 平滑性的目标函数,并在简单和累积后悔下导出了最小的极小值率。
- ICML超越 ucb: 具有回归预测器的最优和高效上下文臂算法
本文提出了一种将上下文强化学习转化为在线回归问题的算法;该算法可以在泛型函数类上实现最小化风险,并且与以前的结果相比,它不需要任何分布假设,即使在敌对性上下文的情况下也可以工作。
- 通过最小 Wasserstein 反卷积实现非耦合等距回归
本文阐述了利用基于最优传输理论的工具来推导满足 $y_i$ 弱矩条件的极小极大率,并给出了实现最优率的有效算法。上下界都使用与学习混合分布和反卷积相关的矩匹配论据。
- Wasserstein 距离下的 Minimax 分布估计
论文提供了关于在 Wasserstein 损失下仅使用样本空间的测度性质和概率分布的弱矩假设,对于概率分布的估计的统计极小值率上下界的研究。
- 最近邻信息估计器具有自适应接近极小最大速率最优性
本文对 Kozachenko-Leonenko 估计器在扭曲空间中的微分熵进行了分析,提出了首个关于其性能的均匀上界估计和新的极小化下界估计,并且证明了 KL 估计器在不考虑 H"older 球的平滑参数时,可以达到极小化速率,成为第一个可 - 超越 1 维的全变差类:极小极大速率和线性平滑器的限制
在高维离散空间中,假设函数具有有限的总变异性,本文通过导出最小化 (平方) L2 估计误差率,表明了:总变异性去噪(融合拉索)优于拉普拉斯平滑和拉普拉斯特征图等较简单的估计器。
- 主动学习与随机凸优化之间的算法联系
该论文探讨了近年来关于主动学习和随机凸优化之间的理论相关性,并提出了两种算法,分别适用于一维阈值和 d 维凸优化的场景,旨在实现对这两个领域的最优控制,支持适应所有未知的凸性和平滑参数。
- 具有通用损失函数的在线非参数回归
本文研究任意函数类和一般损失的在线回归问题,并确定了最小极大率。结果表明,当函数类的复杂度低于某一阈值时,最小极大率取决于损失函数的曲率和序列复杂度。而当复杂度高于该阈值时,损失的曲率不再影响率。此外,对于平方损失,当顺序和独立同分布的经验 - 单位不变范数下的体积比、稀疏性和极小性
本文提出了一种用于研究非渐近极小值估计高维矩阵的新机制,该机制可以在各种问题的大量损失函数中产生紧密的极小值。基于有限维 Banach 空间的凸几何,我们首先开发了体积比方法,用于确定所有平方酉不变范数下无约束正常均值矩阵的极小值估计率。此 - 广义指数族函数回归中的估计
研究了一类指数族模型,其规范参数被指定为未知的无限维斜率函数的线性泛函。建立了斜率函数估计的最优最小值收敛速率。构造了实现最优速率的估计量,这些估计量通过带有样本大小增长的参数的受限最大似然估计来构造。通过类似于 Le Cam 渐近等价理论 - NIPS通过凸规划在核类上为稀疏加法模型获取极小极值速率
本文研究了稀疏可加模型的估计方法,通过使用核函数和凸正则化,对在重要条件下估计函数具有良好的表现,同时证明了该方法的最优性并获得了最小极值速率。
- MM高维线性回归在 Lq - 球上的极小极大估计率
本文研究了标准线性回归模型的极小极大收敛速度,证明在合适的设计矩阵正则化条件下,最小值误差在 $L_2$-,$L_{oldsymbol r}$- 损失和 $L_{oldsymbol 2}$- 预测损失内达到了收缩速度。同时,我们提供了