BriefGPT.xyz
大模型
Ask
alpha
关键词
meta-transfer learning
搜索结果 - 6
ICML
鲁棒的序列神经过程
本研究介绍了一种新的抽象注意机制 Recurrent Memory Reconstruction (RMR),并采用其改进了基于 Sequential Neural Processes (SNP) 的 meta-transfer learn
→
PDF
4 years ago
ACL
基于元迁移学习的混合语言语音识别
通过元迁移学习的新学习方法提取高资源单语数据信息,条件化优化混合语音识别数据,从而在低资源环境下实现混合语音识别,实验结果表明,我们的模型在语音识别和语言建模任务方面优于现有基线模型,并且收敛速度更快。
PDF
4 years ago
ICML
LEEP:评估学习表示可迁移性的新度量
介绍了一种新的测量方法,能够评估分类器学习的表示的可转移性,该方法称为 LEEP,能够预测转移学习和元转移学习的性能和收敛速度。LEEP 优于一些最近提出的可转移性指标,可以在从 ImageNet 到 CIFAR100 的转移学习中实现高达
→
PDF
4 years ago
CVPR
零样本超分辨率的元转移学习
本文提出了基于元传递学习的零样本超分辨率,利用泛化的初始参数适合内部学习,能够利用外部和内部信息来适应各种数据条件,从而可以大大减少推理时间。
PDF
4 years ago
CVPR
通过难度任务实现元转移学习
本文提出了一种新颖的元转移学习(MTL)方法,通过学习每个任务的深度神经网络权重的缩放和移位函数来实现权重的转移,同时引入了硬任务元批处理方案作为有效的学习课程,对三个具有挑战性的基准数据集进行了少样本学习实验,并报告了五类少样本识别任务的
→
PDF
5 years ago
CVPR
元转移学习用于少样本学习
本篇论文提出了一种名为元转移学习的新型少样本学习方法,通过训练多个任务以及为每个任务学习深度神经网络权重的缩放和移位函数来实现迁移。作者使用提出的 HT 元批处理方案对 MiniImagenet 和 Fewshot-CIFAR100 这两个
→
PDF
6 years ago
Prev
Next