- 一层 ReLU 网络的 PAC 学习算法和 SQ 下界
本论文研究了具有 $k$ 个隐藏单元的一层 ReLU 网络在高斯边缘下学习的问题,并提出了适用于正系数情况的首个多项式时间算法,解决了此前在 $k≤3$ 情况下无多项式时间算法的开放性问题。然而,对于具有任意实系数的一层 ReLU 网络的 - 约束下的可能近似正确学习
本文提出一种基于 PAC 学习框架的约束学习方法,该方法通过对经验风险最小化规则进行约束来解决分类问题中的偏差、不公平和不稳定性等问题,研究表明该方法能够实现约束学习的泛化。
- IJCAI学习标签比例的复杂性
本文研究了一种学习模型,即以标签比例学习为代表的 LLP 学习模型,通过计算学习复杂度和 PAC 学习的比较,以及 VC 类的研究,得出了该模型的基础特性。
- 随机效用模型下的子集选择最佳项学习
我们提出了一种基于 PAC 学习的随机效用模型(RUM)的新学习算法,通过使用分层消除和基于两两相对比较的临界统计值进行训练,可以在 O (n/(c^2ε^2) log (k/δ)) 轮内识别出一个具有 ε 优异度的项,其中对于足够敏感于项 - 具备 Massart 噪声的半空间分布无关 PAC 学习
研究分布无关的半空间在 Massart 噪声下的拟准确性学习问题,给出了一个计算复杂度为多项式时间且误分类错误率为 η+ε 的算法。
- VC 类可对抗性强鲁棒可学习,但只是不规则的
研究学习对抗性强预测器的问题,表明任何具有有限 VC 维度的假设类都可以通过不正确的学习规则进行强健的 PAC 学习,而不正确的学习规则是必要的,因为我们展示了具有有限 VC 维度的假设类的例子,不能通过任何正确的学习规则进行强健的 PAC - 随机梯度下降能否学习具有可证明泛化性的循环神经网络?
本文研究了 RNN 模型在 PAC 学习语言中所能学习的概念类别以及如何通过渐进多项式时间和样本复杂度来有效地学习一些显著的概念类别,例如使用平滑的双层神经网络从不同的输入信息生成各自的输出信息。
- PAC 模型中学习量子通道的高效算法及近似状态辨识问题
研究 PAC 学习量子过程问题,给出了样本复杂度估计,并推广了此问题到量子世界,得出了量子电路可在多项式样本下进行 PAC 学习且可近似区分量子状态。
- AAAI基于超图的 Wasserstein 软标签传播:算法及泛化误差界
本文介绍了一种利用最优传输方法在超图上传播软标签的半监督学习算法,并通过 Wasserstein barycenters 技术泛化到超图。基于算法稳定性,通过 2-Wasserstein 距离传播在图和超图上传播一维分布并提供广义误差界限。
- 应对噪声的几何概念学习
我们研究了在部分数据遭到敌对噪声污染的情况下,几何概念类(特别是低次多项式阈值函数(PTF)和半空间的交集)的高效可学习性,并给出了这些概念类的首个多项式时间 PAC 学习算法,具有不依赖于维度的误差保证。
- AAAI混合物的高效样本学习
提出了一种基于混合学习算法的 PAC 学习方法,该算法可用于密度估计中的概率分布,其中包含了学习概率分布,学习混合分布等,其中混合分布包括轴向高斯混合分布,高斯混合分布和对数凹分布。
- MM量子学习理论概览
本文调查了量子学习理论,描述了准确学习、PAC 学习和精通学习三种学习模型的主要结果,这些学习是使用经典或量子示例的机器学习的理论方面。
- 具有健壮泛化保证的自适应学习
研究三种不同强度的泛化理论 —— 稳健泛化、差分隐私和完美泛化的关系,并证明了每个假设类都可以在稳健泛化的情况下进行 PAC 学习,具有相近的样本复杂度。
- NIPS在线睡眠组合优化问题的难度
我们研究了几个在线组合优化问题的睡眠设置版本,并证明其至少与 PAC 学习 DNF 表达式一样困难。我们证明了 Online Shortest Paths 问题的困难性结果,解决了 COLT 2015 提出的一个开放问题。
- PAC 学习的最优样本复杂度
通过对 Hans Simon 最新成果的技术和分析,本文在可实现情况下建立了一个新的 PAC 学习样本数量的上限,该上限匹配了已知的下限,解决了一个长期存在的开放性问题。
- IJCAI学习合作游戏
探索了在合作博弈中的 PAC(可能近似正确)学习模型,研究了几种合作博弈的 PAC 可学习性以及 PAC 可学习性与核稳定之间的联系,如网络流游戏,阈值任务游戏和诱导子图游戏。通过多项式样本数,可以找到可能稳定的收益分配。
- 私有学习器的样本复杂度表征
本文给出了一个样本大小的组合特征,是私有概念类学习足够和必需的。我们介绍了概念类的概率表示概念,并证明了私有学习算法对于概念类 C 的样本复杂度意味着 RepDim(C)=O (m),并且存在一个样本复杂度 m = O(RepDim(C)) - 逼近和聚类数据的统一框架
该研究考虑了针对一组正函数的最小化问题,给出了一个压缩表示法(coresets),用于形状拟合(shape fitting)和近似聚类(approxiate clustering)问题。他们将 epsilon-approximations - 量子学习算法的改进界限
本文介绍了通过量子查询和量子示例从学习布尔函数的算法的复杂性的新结果,其中我们探讨了中间问题的量子和经典查询复杂度与精确学习问题和谐平衡的自然问题,并提高了期望严格学习的新下界,以达到经典 PAC 学习的已知上界。