本研究提出了一种无需先前数据就可以预测新型干预效果的因果元学习框架 (CaML),它是一种单一元模型,可跨越数千个任务进行训练,结合基于个体特征和干预信息的元特征,证明了在医疗和细胞实验中的有效性。
Jan, 2023
本研究旨在比较多种最新的 zero-shot learning 方法在标准基准数据集上的表现,并提出和比较多种元分类器,在缺乏带标签训练数据集的情况下,将多种分类器的最佳方面相结合,达到更好的分类效果。
Mar, 2022
该论文提出了元调谐(meta-tuning)方法,旨在直接针对零样本学习目标对预训练语言模型进行微调,应用于分类任务,并通过聚合 43 个现有的数据集和 441 个标签描述来构建元数据集。实验证明,相比基于自然语言推理的先前 SOTA 零样本学习系统以及同样大小的 QA 模型,元调整模型在新的任务上表现更好,同时我们认为,增加参数数量会进一步提升 AUC-ROC 分数。
Apr, 2021
该论文介绍了元学习在深度学习中的应用及其近期发展,涵盖度量、记忆、基于学习等方法,并探讨了当前的挑战和未来的研究方向。
Mar, 2023
研究多语言应用中,如何应用元学习来提高模型性能,通过实验表明在标准的监督学习、零样本学习和少样本学习的跨语言自然语言理解任务中,元学习对于 15 种语言始终有效。
Mar, 2020
本文提出了一种简单而有效的元学习范式,采用多种混合注意力机制来提取更好的话语特征,采用元学习策略来提高模型的泛化能力,从而在标准和广义零 - shot 意向分类任务上优于其他强基线
Jun, 2022
本研究提出了一种基于元学习框架的元学习 Few-Shot Learning 方法,其中利用一种简单而有效的元 Dropout 机制,防止神经元在元训练阶段过度协同。实验验证了该方法在目标检测领域的有效性。
Oct, 2022
本篇论文提出了一种名为元转移学习的新型少样本学习方法,通过训练多个任务以及为每个任务学习深度神经网络权重的缩放和移位函数来实现迁移。作者使用提出的 HT 元批处理方案对 MiniImagenet 和 Fewshot-CIFAR100 这两个具有挑战性的少样本学习基准进行了实验,并将其与相关工作进行了广泛比较,结果验证了元转移学习方法的优越性和高准确性。
Dec, 2018
本文提出了一种贝叶斯方法,通过引入元类概念和在类周围实现贝叶斯层次结构,将数据似然性与本地和全局先验相结合,从而在归纳式零样本学习中恢复未见过的类。
Jul, 2019
本文提出了一种联合训练方法,将迁移学习和元学习相结合,从而在少分类、少样本以及多分类、多样本任务中均可获得更好的泛化性能。
Sep, 2018