- 无偏锐度感知最小化
在这项工作中,我们探索了锐度感知极小化(SAM)和模型不可知元学习(MAML)之间的联系,特别是在增强模型泛化方面。我们引入了一种新方法 Agnostic-SAM,它结合了 SAM 和 MAML 的原则。Agnostic-SAM 通过优化模 - 评估神经网络在脑机接口中的快速适应能力
这篇论文提出了一种简单的评估快速适应性的策略,并就电子脑图谱、脑机接口、模型不可知元学习、卷积神经网络和适应性等方面进行了实证研究。
- 梯度为基础的 MAML 在 LQR 中的收敛性
本研究探讨了 Model-agnostic Meta-learning (MAML) 在线性系统二次最优控制(LQR)中的局部收敛特性,同时保持动态系统的稳定性。通过简单的数值结果展示了 MAML 在 LQR 任务中的收敛性。
- 利用领域随机化和元学习来弥合基于强化学习的交通信号控制的现实差距
通过对潜在的模拟参数分析和对两种策略(Domain Randomization 和 Model-Agnostic Meta-Learning)的研究,我们研究了交通信号控制系统中的现实差距问题,并在实验中证明这两种方法优于现有的强化学习算法 - 使用元学习抑制未知和多个 MRI 伪影的通用深度学习方法
提出了一种称为课程元学习的方法,该方法将元学习和课程学习相结合,以自适应地学习许多工件的恢复,相比于两个心脏数据集的随机梯度下降和元学习,CMAML 在 83%的未见过的工件类型和数量的情况下展现出更好的波峰信噪比和在所有情况下都有改进的结 - MM关于联邦学习和多任务学习中的能源和通信效率权衡
本文研究了在分布式无线网络中使用 Model-Agnostic Meta-Learning(MAML)范式驱动的多任务学习(MTL)过程的能量成本,发现该方法可以通过联邦学习减少能量开支至少两倍,并且无线网络的最佳能量平衡取决于上行 / 下 - 基于超网络的贝叶斯 MAML 方法
本文提出了一种名为 BayesianHyperShot 的新方法,它是对 Bayesian MAML 的创新性推广。将贝叶斯原则与超网络结合使用,可更好地收敛于经典学习评估,并通过贝叶斯方法提高了适用性,并使用超网络实现高灵活性的任务自适应 - 个性化异步联合学习
在异步更新的条件下,我们研究了个性化联邦学习问题。我们考虑了两种基于优化的个性化框架,并通过去除同步通信的假设和扩展函数类来提高其可扩展性。我们的主要技术贡献是确定性地证明,对于平稳和非凸函数类,我们的方法可以收敛到一阶稳定点,同时实验证明 - HyperMAML:用超级网络进行深度模型的少样本适应
提出了 HyperMAML,这是 Model-Agnostic Meta-Learning 的一种新型泛化方法,其训练的更新过程也是模型的一部分,通过可训练的 Hypernetwork 来更新权重,超越了 MAML 并在标准 Few-Sho - ICCV使用任务自适应损失函数的元学习用于小样本学习
模型无关元学习(MAML)和其变体往往采用简单损失函数进行学习,为了更好地泛化,我们提出了一种新的元学习框架 MeTAL,其中损失函数适应于每个任务。
- ICLR如何训练你的 MAML 在少样本分类领域表现卓越
在 Few-shot classification 这个问题上,我们探究了如何训练 MAML 表现得更美好,发现 MAML 需要大量的梯度步骤才能适应少样本分类,敏感于试验时分类标签的赋值,本文提供了多种方法解决其排列不变性。我们命名为 U - ICLR探究模型不可知元学习中的表示相似性
本文通过应用神经科学中的一种良好的方法 - 表示相似性分析 (RSA) 来研究模型无关元学习中的模型表示。虽然一部分分析支持特征重用是主导因素的一般结果,但我们也揭示了对其结论的反驳。指出对接近输入层的层的相似性增加起源于学习任务本身而不是 - ACL基于元学习的依存句法快速跨语言适配
应用元学习技术,使用模型无关的元学习 (MAML) 在不同的语言上进行训练,实现快速适应新语言,有效提高了在少量数据集下,处理跨语言 NLP 问题时的效果。
- 模型无关元学习算法的泛化:循环和未见任务
本文研究了超模型学习中的 MAML 算法在监督学习问题的推广性质,探讨了训练 MAML 模型的任务和样本数量对其推广误差的影响。我们提出了一种新的稳定性定义,从而捕捉了任务数和每个任务样本数对 MAML 推广误差的作用。
- ICML关于模型无关元学习的全局最优性
通过一级优化解决每个子任务并通过二级优化确定最优先前信息的模型无关元学习 (MAML) 被证明在非凸元目标上有全局最优性,其与内部目标的函数几何性和函数逼近器的表示能力有关。
- 连续时间限制下的元学习
本文研究了模型无关元学习(Model-Agnostic Meta-Learning, MAML)运动动力学的普通微分方程(ODE),提出了一种新的 BI-MAML 训练算法,可以显著减少现有 MAML 训练方法的计算负担,并通过理论分析和实 - 基于特定任务适应的元学习在部分参数上的收敛
该论文研究了基于内部循环损失的几何性质如何影响 ANIL 算法的收敛速度和计算复杂性。研究表明,ANIL 对于强凸内环损失的收敛速度随着内环梯度下降步数的增加而加快,而对于非凸内环损失则会随着 N 的增加而减慢。并且,对于标准的几个元学习基 - 跨口音语音识别上的快速适应学习
研究了方言对同一语言单词发音的影响,提出了一种基于模型对抗元学习算法的跨方言英语语音识别任务,通过实验表明该方法显著优于联合训练。
- 个性化联邦学习:一种元学习方法
本文研究了联邦学习的个性化变种,在 Model-Agnostic Meta-Learning 框架下,通过个性化 Federated Averaging 算法,根据不同用户数据的分布差异,探讨其性能的影响。
- 任务鲁棒的模型无关元学习
本文提出了一种新的元学习方法,通过解决 min-max 问题以最小化观测到的元训练任务的最大损失,可以实现任务健壮性,从而在元训练和元测试之间的任务分布变化时,都能表现出色。