BriefGPT.xyz
Mar, 2022
通过记忆模仿提升低资源文本分类和生成的元学习
Improving Meta-learning for Low-resource Text Classification and Generation via Memory Imitation
HTML
PDF
Yingxiu Zhao, Zhiliang Tian, Huaxiu Yao, Yinhe Zheng, Dongkyu Lee...
TL;DR
文章提出了一种记忆模仿元学习方法,利用任务特定的记忆模块存储支持集信息,并构建模仿模块来强制查询集模仿存储在内存中的某些代表性支持集样本的行为,以提高模型对支持集的利用,进而在文本分类和生成任务中取得了优异的性能。
Abstract
Building models of
natural language processing
(NLP) is challenging in
low-resource scenarios
where only limited data are available. Optimization-based
→