BriefGPT.xyz
Ask
alpha
关键词
multi-head self-attention layers
搜索结果 - 1
注意力聚焦:非递归手写文本行识别
使用变形金刚模型的多头自我注意力层,无需回归方法且具有超出预定义词汇表的单词识别能力,能实现很高的手写识别精度,即使在少量样本学习情况下也可取得满意的结果。
PDF
4 years ago
Prev
Next