提出了一个名为 Meta-Dataset 的大规模基准数据集,用于训练和评估模型在少样本分类问题上的性能,并探讨模型对不同训练来源的泛化能力和元学习的好处。
Mar, 2019
这项研究提出了一种基于编码器的异构表格数据表示方法,它通过自动提取重要的元特征来代替以往依赖预定义的元特征的方法,该方法在整合数据集和超参数优化暖启动等两个常见元任务中与 Dataset2Vec 和 liltab 在元 MIMIC 数据集上的评估显示了表示学习中细微挑战的存在。
Mar, 2024
本文介绍了一种提供视觉分类任务向量表示的方法,该表示可用于推断任务及其关系的性质,并提供了独立于细节(如类标签语义的理解等)的任务的固定维度嵌入。我们还展示了该框架的实用价值以及通过学习嵌入度量来选择预训练特征提取器的简单元学习框架。选择具有任务嵌入的特征提取器可获得接近最佳特征提取器的性能,而成本则显著低于对所有可用特征提取器进行详尽的训练和评估。
Feb, 2019
该论文介绍了元学习在深度学习中的应用及其近期发展,涵盖度量、记忆、基于学习等方法,并探讨了当前的挑战和未来的研究方向。
Mar, 2023
本文提出了一个新颖的基于元学习的动态集成选择框架,用于提高过低训练数据量问题下的分类精度,通过五个不同类型的元特征来衡量分类器为输入样本分类的能力,并用这些元特征来训练元分类器,从而选择最有能力的分类器进行集成。
Sep, 2018
通过信息理论设计的元正则化目标,可以使元学习器在任务训练数据和任务测试数据之间有效地适应,成功地使用来自非相互排斥任务的数据来有效地适应新任务,并在应用场景中大幅优于标准元学习算法。
Dec, 2019
Meta-Sim 是一种生成模型,它使用概率场景语法的场景图来渲染图像并生成相应的真实标签,通过神经网络训练来缩小生成数据输出和目标数据之间的分布差距,以优化下游任务的性能以实现自动数据合成。
Apr, 2019
本论文旨在提供关于 Deep Meta-Learning 的理论基础以及总结关键的度量、模型和优化技术,同时也指出了性能评估和计算成本等主要挑战。
Oct, 2020
通过选择多样的任务进行小批量处理,我们研究利用任务关联的外部知识来改善训练稳定性,进而减少训练中的噪音。
Dec, 2023
深度神经网络在人工智能领域带来了革命性的进展,但面对分布转移时常常缺乏性能。传统神经网络假设训练和测试数据服从同一分布,然而实际应用中这一假设经常被违反。元学习作为一种有前景的方法,通过获取可传递的知识来快速适应各种任务,从而消除了从头学习每个任务的需求。本文基于特征提取策略和分类器学习方法的新分类法,全面调查了元学习在领域泛化方面的贡献,详细介绍了该领域的基础知识,并提供了关于未来研究方向的实践见解和深入讨论。
Apr, 2024