Jul, 2019

使用预训练编码器进行词汇简化

TL;DR本研究使用 Bidirectional Encoder Representations from Transformers (BERT) 模型,基于序列接受面向上下文、利用未标注数据训练能力,对于未知词语的语境下,对其进行了无监督的简化,显著提高了效果。