Nov, 2020

将预训练 Transformer 适应于格上,以进行口语语言理解

TL;DR本篇论文旨在将 Transformer 预训练模型适应于格输入以执行口语理解任务,并在 ATIS 基准数据集上进行了实验,结果表明,将预训练的 Transformers fine-tuning 用于格输入比用于 1-best 结果有了显著改进,证明了方法的有效性。