Apr, 2020

基于Transformer的音素转换

TL;DR本文研究将transformer架构应用于G2P转换,并将其性能与循环卷积神经网络等之前的方法进行比较。结果显示,基于transformer的G2P在单词错误率方面优于基于卷积的方法,并且我们的结果在两个数据集上的单词和音素错误率方面显着超过之前的循环方法(无注意力)。此外,所提出的模型的大小要小得多。