Mar, 2022

g2pW:一种有条件的加权 Softmax BERT,用于汉语多音字消歧

TL;DR提出了一种新的 g2pW 方法,使用可学习的 softmax 权重将 BERT 的输出与所需的多音字字符及其 POS 标记进行条件转化,无需使用额外的 POS 标记预训练模型。该方法在公共 CPP 数据集上的表现优于现有方法。