BriefGPT.xyz
大模型
Ask
alpha
关键词
cross-layer attention
搜索结果 - 2
ACL
基于 CTC 的非自回归语音翻译
本文介绍了一种基于 CTC 的非自回归语音翻译模型,采用预测感知编码方法和跨层注意力方法解决了翻译任务中的条件独立生成和单调对齐等问题,加速比为 5.67 倍,BLEU 分数为 29.5,在 MuST-C ST 基准测试上优于自回归模型和之
→
PDF
a year ago
ICLR
通过层注意力进行跨层次追溯检索
提出跨层多头循环层关注(MRLA)机制,以检索来自不同感受野级别的查询相关信息来丰富许多视觉网络的表示能力,并在图像分类、目标检测和实例分割等任务中获得了显著的提升。
PDF
a year ago
Prev
Next