BriefGPT.xyz
Ask
alpha
关键词
kernel feature maps
搜索结果 - 2
ICML
Transformers 是 RNN:具有线性注意力的快速自回归 Transformers
通过使用线性核特征图将自注意力表示为线性点积,并利用矩阵积的结合律特性将复杂性从 O (N^2) 降至 O (N),我们的线性变压器实现比循环神经网络快 4000 倍,但在自回归预测上达到了与基本变压器类似的性能。
PDF
4 years ago
用于图结构数据的卷积核网络
本文介绍了一种多层图形核的家族,并建立了图卷积神经网络与核方法之间的新联系。利用核特征图形的序列表示图形数据,从而将卷积核网络推广到了图形结构数据,实现了高效的数据表示和训练。在多个图形分类基准测试中,该方法实现了竞争性的性能,同时提供了简
→
PDF
4 years ago
Prev
Next