非线性元学习能保证更快速率
本文提出了一种基于 Meta-learning 的多任务线性回归算法,该算法能够通过低维线性表示快速学习多个相关任务,同时将这些知识传递到新的未见过的任务中,并提供了信息论下限,证明了该算法的高效性。
Feb, 2020
本篇研究了如何在少量标记数据的情况下进行监督学习,通过元学习来利用相似性,结合谱方法,提出了一种优雅的方法来充分利用小型数据集,只需适量的中型数据即可使大数量小标记数据的任务替代大数据任务。
Feb, 2020
利用层级潜变量模型,自动推断任务之间的关系并应用于模型强化学习中,从而实现在小规模数据集上的元学习,有效提高数据利用率,解决新任务的平均交互时间缩短高达 60%。
Mar, 2018
通过信息理论设计的元正则化目标,可以使元学习器在任务训练数据和任务测试数据之间有效地适应,成功地使用来自非相互排斥任务的数据来有效地适应新任务,并在应用场景中大幅优于标准元学习算法。
Dec, 2019
本文提出了一种理论框架来设计和理解实用的元学习方法,该方法将任务相似性的复杂形式化与在线凸优化和序列预测算法的广泛文献融合。该方法使任务相似性能够自适应地学习,为统计学习 - to-learn 的转移风险提供更加精确的界限,并在任务环境动态变化或任务共享一定几何结构的情况下,导出高效算法的平均情况后悔界限。我们使用该理论修改了几种流行的元学习算法,并在少样本学习和联邦学习的标准问题上改善了它们在元测试时的性能。
Jun, 2019
利用从相关任务中提取的任务不变的先验知识,元学习是一种原则性的框架,能够在数据记录有限时有效地学习新任务。使用预条件器来处理权重更新的收敛问题是元学习中的一个基本挑战。现有方法通过增强每个任务的训练过程来处理这个挑战。然而,简单的线性预条件器很难捕捉复杂的损失几何结构。本文通过学习非线性的镜像映射来解决这个限制,从而引出一种通用的距离度量,能够捕捉和优化各种损失几何结构,从而促进每个任务的训练。在少样本学习数据集上的数值测试验证了这种方法的优越性和收敛性。
Dec, 2023
本文提出了一个框架,用于解决神经网络在数据分布不稳定时的忘记问题,该框架结合了元学习和持续学习技术的优点,避免了对任务边界的先验知识,并重点关注了如何更快地恢复性能。在监督学习情境下,我们展示了该框架的应用和效果。
Jun, 2019