用于顺序决策的元学习假设空间
研究了基于核的赌博机和强化学习问题,利用可再生核希尔伯特空间 (RKHS) 元素的置信区间,发现现有置信区间似乎不紧,导致次优的遗憾度界限,存在几种核化赌博机算法 (例如 GP-UCB,GP-TS 及其变种) 的现有遗憾度界限可能甚至不能达到亚线性,需要在在线观察点的连续性质的条件下重新界定 RKHS 环境下的在线置信区间问题并简述现有进展。
Oct, 2021
本文提出了一种学习方案,通过可扩展地结合多个基于单核的在线方法来减少内核选择偏差,从而扩展了单核解空间,增加了找到高性能解的可能性,并在累积正则化最小二乘成本指标方面实验证明所提出的学习方案优于单独使用的组合单核在线方法。
Aug, 2023
研究了采用非参数高斯过程先验的 UCRL 和后验抽样算法的在线学习方法在未知的连续状态和动作的马尔可夫决策过程中最小化后悔的问题,在频率设置下,通过对核函数诱导的函数的再生核希尔伯特空间的真实 MDP 的转移和奖励函数的成员进行变异,研究了这些算法的后悔边界问题,并突出了转移和奖励函数对学习性能的影响。
May, 2018
使用深度核函数的贝叶斯元学习方法(DKT)可应用于小数据集问题,提供了多种优势,实验结果优于多种现有算法,并可将复杂的元学习程序替换为简单的贝叶斯模型。
Oct, 2019
本论文提出了一种基于优化原则的在线学习算法,通过在函数空间中最小化对偶差来寻找 Nash 均衡点,在马尔科夫博弈中进行非线性函数逼近,解决了高维函数空间中的探索问题,并扩展了几种算法,其中一个可以实现更紧的遗憾上界,另一个可以应用于神经网络函数逼近的模型错误说明。
Aug, 2022
用 KIP 算法从大规模数据集中提取出适合于训练机器学习模型的小规模数据集且在保持模型性能的同时可以大幅减小数据集容量的同时可以实现隐私保护,该算法在 MNIST 和 CIFAR-10 的分类中获得了最先进的结果。
Oct, 2020
本研究将 MAML 泛化为能够被定义在函数空间内的元学习范式,并提出了在元模型的神经正切核引发的再生核希尔伯特空间(RKHS)中的首个元学习算法,该方法不再需要 MAML 框架中的子优化内循环适应,而是通过在 RKHS 中替换适应性并基于 NTK 理论解析解决适应性。大量实验表明,与相关的元学习算法相比,我们的模型在解决方案的效率和质量方面具有优势,并且比流行基线更具鲁棒性,可以更好地对抗对抗性攻击和分布适应性,这是我们提出方法的另一个有趣特点。
Feb, 2021
探讨了基于经验风险惩罚的多核学习问题。它综合考虑了经验 $L_2$ 范数和核引起的再生核希尔伯特空间(RKHS)范数及其正则化参数的数据驱动选择的复杂度惩罚。主要关注的是当核心总数很大但仅需要较少数量的核心来表示目标函数时,该问题是稀疏的情况。目标是建立超预言不等式的超额风险,用于描述该方法是如何适应未知设计分布和问题的稀疏性。
Nov, 2012
该研究提出了一种基于 Koopman 算子理论的新型重现核希尔伯特空间 (RKHS),称为 Koopman Kernel Regression (KKR),可以提高预测的准确性和泛化能力,对于以 Koopman 为基础的预测器,最新的统计学习方法存在限制,所以提供比现有研究更为详尽的证明和更宽松的假设。
May, 2023
研究最优实验设计,针对再生核希尔伯特空间(RKHS)中的线性泛函估计,提供了构建偏差感知设计的算法,并推导出在次高斯噪声下的固定和自适应设计的非渐进置信集,使得可以高概率地证明具有有界误差的估计。
May, 2022