BriefGPT.xyz
Ask
alpha
关键词
key-value memory
搜索结果 - 2
Transformer 中 ReLU 和 Softmax 的研究
本文研究了 Transformer 模型的架构,介绍了自注意力机制和前馈神经网络,并重建了 ReLU 和 Softmax 之间的关系,提出了使用额外层归一化模块的 Softmax 和 ReLU 相等的概念。此外,研究发现 ReLU 可以处理
→
PDF
a year ago
EMNLP
一种高效的记忆增强转换器,用于知识密集型 NLP 任务
提出了 Efficient Memory-Augmented Transformer (EMAT) 作为一种结合参数式模型和检索式增强模型的方法,有效地利用外部知识源以提高自然语言处理任务的准确性和计算效率。通过将外部知识编码为键值内存,并
→
PDF
2 years ago
Prev
Next