BriefGPT.xyz
Ask
alpha
关键词
parallel attention
搜索结果 - 2
针对 Transformer 的预训练和推理的并行注意力和前馈网络设计
本文介绍了并行注意力和前馈网络设计(PAF),以提高 Transformer 模型的效率,并评估了它在语言理解任务中的性能与速度表现,与 Series Attention 和 Feed-Forward Net Design 相比,PAF 设
→
PDF
a year ago
MM
ABODE-Net: 一种基于注意力机制的深度学习模型,利用智能电表数据进行非侵入式建筑物占用检测
本文提出了一个利用智能电表数据进行建筑物占用检测的深度学习模型 ABODE-Net,并采用了一种称为 Parallel Attention 的新型并行关注机制,结合时间、变量和通道注意力实现对重要特征的识别。在两个广泛应用于建筑物占用检测的
→
PDF
2 years ago
Prev
Next