BriefGPT.xyz
Ask
alpha
关键词
meta-knowledge distillation
搜索结果 - 1
元学习跨元任务进行少样本学习
本文提出了利用元任务之间的关系来辅助元学习的方法,分别考虑了在两种类型的元任务对上的关系,并提出了不同的策略来利用它们:1)有不相交类集的两个元任务,2)有相同类集的两个元任务,并给出了相应的新学习目标。然而由于实验中的一些错误,我们选择撤
→
PDF
4 years ago
Prev
Next