BriefGPT.xyz
Ask
alpha
关键词
systematic attention layer
搜索结果 - 1
通过关注结构化的量化嵌入来促进 Transformer 的系统性
通过在训练集较低复杂度的情况下,通过显式鼓励结构性嵌入和注意力层的系统性来提升语义解析和机器翻译中的组合泛化能力。
PDF
5 months ago
Prev
Next