BriefGPT.xyz
Ask
alpha
关键词
scaled dot-product attention mechanism
搜索结果 - 1
侧化 MLP:扩散的简单脑启发架构
基于大脑侧化的灵感,我们提出了一种简单而有效的架构 L-MLP,它基于多层感知器并在处理数据维度时进行排列、并行处理和合并,通过连接的 MLP 传递。我们发现这种设计优于其他 MLP 变体,在挑战性的扩散任务中与基于 Transformer
→
PDF
a month ago
Prev
Next