Nov, 2020
将预训练 Transformer 适应于格上,以进行口语语言理解
Adapting Pretrained Transformer to Lattices for Spoken Language Understanding
Chao-Wei Huang, Yun-Nung Chen
TL;DR本篇论文旨在将 Transformer 预训练模型适应于格输入以执行口语理解任务,并在 ATIS 基准数据集上进行了实验,结果表明,将预训练的 Transformers fine-tuning 用于格输入比用于 1-best 结果有了显著改进,证明了方法的有效性。