Feb, 2021

文本压缩辅助下的 Transformer 编码

TL;DR本文提出了显式和隐式文本压缩方法来增强 Transformer 编码,并用这种方法评估了多个依赖于编码的典型下游任务的模型。我们提出了三种方式的集成,即骨干源侧融合,目标侧融合和双侧融合,以便于变压器基于模型集成骨干信息的各种下游任务中。与强基线相比较,我们的显式和隐式文本压缩方法改善了结果,我们认为文本压缩有助于编码器学习更好的语言表示。