AAAINov, 2018

智能代理中口语理解的无监督迁移学习

TL;DR通过使用语言模型的嵌入(ELMo)技术,提出了一种更快、更简单的无监督预训练方法 ELMo-Light(ELMoL),在大量未标记的句子上进行的无监督预训练,在语音识别任务上比从头开始训练或传统的有监督迁移学习方法表现更好,并且当域内的标记样本仅有 1000 个时,我们的技术可以匹配使用 10-15 倍更多标记的样本从头开始训练的性能。