Oct, 2020

ST-BERT:跨模态语言模型预训练用于端到端口语理解

TL;DR本文介绍了一种跨模态预训练语言模型——Speech-Text BERT(ST-BERT),通过两种预训练任务(Cross-modal Masked Language Modeling and Cross-modal Conditioned Language Modeling)学习上下文跨模态对齐,对端到端的口语语言理解任务进行了解决,实验结果证明,该方法有效。同时,我们的方法通过使用特定于域的语音文本对数据进行域自适应预训练来提高SLU性能的表现。