本论文研究了在线设置下学习过程中涉及到的平滑度、最小极大后悔以及上下文干涉等问题,并提出了对应算法的解决方案。
Feb, 2022
本文通过平滑分析模型,使用新颖的算法为多个在线问题提供了保障;提出了一种普适的证明平滑算法保障的技术;并将此技术应用于在线学习、在线差异最小化和在线优化等问题,取得了重要进展。
Feb, 2021
该研究应用平滑分析框架和括号数的概念,探讨在线对抗和差分隐私学习中的可学习性,并提出了基于 VC 维度和括号数以及扰动程度的损失保证和隐私错误边界方法。
Jun, 2020
在线分类研究中,研究者利用对未来示例的预测来改进在线学习算法,以减小期望遗憾并提高分类准确性。该研究还证明了当未来示例可准确预测时,在线学习可以与转导式在线学习相媲美,从而对近期基于预测和分布假设的在线算法的研究提供了补充。
May, 2024
在存在噪音标签的情况下,我们研究了在线分类问题。通过一般的核来建模噪音机制,为任何特征 - 标签对指定了一个(已知)噪音标签分布集合。每个时间步骤,对手根据实际的特征 - 标签对从核指定的分布集合中选择一个未知分布,并根据所选分布生成噪音标签。学习者根据迄今为止观察到的实际特征和噪音标签进行预测,如果预测与真实情况不同,则遭受损失 1(否则为 0)。预测质量通过计算有限时间视野 T 上的极小化风险来量化。我们证明了对于广泛的自然噪音核、对手选择的特征和有限类别的标记函数,极小化风险可以上界独立于时间视野并以标记函数类别尺寸的对数形式增长。然后,我们通过随机顺序覆盖的概念将这些结果推广到无限类别和随机生成的特征。我们的结果通过对在线条件分布估计的新颖归约提供了直观理解,并且扩展并包含了 Ben-David 等人(2009)的研究结果,具有显著的广泛性。
Sep, 2023
通过利用神经网络逼近高斯核的能量函数并借此在随机噪声下进行稳健分类问题,本文提出了经验贝叶斯平滑分类器并在随机平滑框架下进行了理论研究,并在 MNIST 数据集上进行了测试,通过对抗训练和以所学平滑密度为基础的走 - 跳采样,实现了比经验防御更高的稳健性能。
May, 2020
通过将训练数据从一个混合过程进行采样,我们研究了统计学习算法在非独立同分布的环境中的泛化误差,并基于延迟反馈的在线学习提出了一个分析框架。特别地,我们展示了即使数据序列是从混合时间序列采样得到的情况下,通过存在一个具有有界遗憾的在线学习算法(针对一个固定的统计学习算法,在一个特殊构建的延迟反馈的在线学习博弈中),所述统计学习方法的泛化误差较低。这些速率展示了在线学习博弈中的延迟量和连续数据点之间的依赖程度之间的权衡,当延迟适当地调整为过程的混合时间的函数时,可以在许多研究良好的情形下恢复近乎最优的速率。
Jun, 2024
研究在线序列预测的平滑模仿学习问题,通过学习缩减的方法将其降低到回归问题,并采用正则化复杂函数类以确保平滑度。提出了一种元算法,实现快速稳定地收敛到好的策略,相比于以前的方法,具有全部确定性、自适应学习率等优点,并能保证稳定收敛,实证结果证明了性能得到了显著的提高。
Jun, 2016
在线学习设置下,研究了在两个无限维希尔伯特空间之间的线性运算符学习问题。通过证明定理,得出了具有统一有界 p-Schatten 范数的线性运算符类是可在线学习的,但具有统一有界操作符范数的线性运算符类是不可在线学习的结论。同时,通过识别出一类有界线性运算符,证明了在线统一收敛和学习性之间的差异。最后,证明了上述的不可学习性结果和统一收敛性与学习性之间的差异性在 agnostic PAC 设置下仍然成立。
本文提出使用对抗训练来提高基于随机平滑的分类器的效果,并设计一种适应平滑分类器的攻击方法,通过大量实验,得出这种方法在 ImageNet 和 CIFAR-10 上的性能显著胜过所有现有的可证明的 L2 - 强健分类器,证明了这种方法是可靠的,且半监督学习和预训练能够进一步提高其效果。
Jun, 2019