通过对非线性表示的元学习进行理论分析,本研究证明了通过精确的正则化可以缓解不同任务间引入的偏差。
Jul, 2023
本文研究了联合学习对元表示可转移性的影响,并提出了一种分离的编码器 - 解码器方法来实现自监督的元学习,如从相同的函数中获取两个示例集。我们的实验表明,得到的表示比强基线在下游性能和噪声鲁棒性方面都要好。
Oct, 2020
提出一种终身学习算法,通过维护和完善内部特征表示,使前面学习所得的知识能够迁移并应用于接下来的学习任务中,从而提高样本利用效率,并通过实验证明,与现有的终身学习方法相比具有更高的效率。
Oct, 2021
本研究提出了一系列用于强化学习的无监督元学习算法,以解决通过任务提案进行任务训练而非手动任务设计所带来的算法设计负担,并得出这些程序具有优异性能的结论。
Jun, 2018
通过信息理论设计的元正则化目标,可以使元学习器在任务训练数据和任务测试数据之间有效地适应,成功地使用来自非相互排斥任务的数据来有效地适应新任务,并在应用场景中大幅优于标准元学习算法。
Dec, 2019
本文从普适性的角度出发,比较递归模型与将梯度下降融入元学习者的最新方法的表达能力,并回答了梯度下降与深度表示是否具有近似任何学习算法的足够能力的问题。结果发现,基于梯度的元学习策略与递归模型相比具有更广泛的推广性。
Oct, 2017
该篇研究通过无监督元学习方法,利用自动构建的任务,从无标记数据获取表征,并应用于多种下游分类任务中,相对于其他四种无监督学习方法的表征学习,显示出更好的性能。
Oct, 2018
在这项研究中,我们研究了元学习和多任务学习的框架,探讨了在小样本情况下,通过少量任务和样本,能否学习到有效的共享表示,并利用该表示解决二分类问题。
Dec, 2023
本文提出了一个基于对元学习与传统监督学习之间联系的重新审视和加强的原则性统一框架,通过把任务特定数据集和目标模型看作(特征、标签)样本,我们可以把许多元学习算法归约到监督学习的实例中,进一步提高了元学习的表现。
Feb, 2020
该论文回顾了元学习的概念和应用,其与深度学习的不同之处在于其能够适应于少量高维数据集,可以用于模型自适应,可不断自我完善实现高度自主的人工智能。元学习不断发展创新,不同的发展方法已有不同的应用和研究方向,进一步拓展了机器学习的应用领域。
Apr, 2020