BriefGPT.xyz
Ask
alpha
关键词
multi-head multi-layer attention model
搜索结果 - 1
多头多层注意力机制用于深度语言表示的语法错误检测
利用经过预训练的语言表示模型的中间和最终层提取句子中的语法错误特征,通过多头多层的注意力模型,使用 Bidirectional Encoder Representation from Transformers (BERT) ,在三个语法错误
→
PDF
5 years ago
Prev
Next