ACLMay, 2020

将 Transformer 应用于字符级转换

TL;DR这项研究比较了循环神经网络和 transformer 在字符级转换任务方面的表现,发现 batch size 在 transformer 的性能上扮演了关键的角色,在足够大的 batch size 下,transformer 的表现强于循环模型。此外,还提出了一种简单的方法来处理特征导向的字符级转换,并在形态学屈折和历史文本规范化两个任务上实现了最先进的表现。实验结果表明,与强基准相比,transformer 在两个其他字符级转换任务上的表现有所提高:字素到音素的转换和音译。