BriefGPT.xyz
Ask
alpha
关键词
residual attention
搜索结果 - 4
ADOD: 自适应领域感知残余注意力在水下环境中的目标检测
ADOD 是一种用于水下目标检测中解决领域泛化的新方法,通过增强模型在各种水下环境下的泛化能力来确保其稳健性。它采用了 Residual Attention YOLOv3 框架和基于注意力机制的领域分类模块,通过提升检测准确性和适应性,实现
→
PDF
7 months ago
DM$^2$S$^2$: 深度多模态序列集,具有分层模态关注
该研究提出了一种新的多模态输入概念 —— 深度多模态序列集,其包括三个组件来捕捉多个模态之间的关系,并使用 BERT-based 全局编码器和残差注意力来提取重要特征,该模型的结果可解释性强,并且具有与先前 set-aware 模型相媲美或
→
PDF
2 years ago
基于非自回归式、深度 VAE 和残差注意力的文本转语音合成算法 VARA-TTS
本文提出了一个采用多层变分自动编码器和残差注意机制的 VARA-TTS 非自回归文本到语音模型,通过逐层精细化文本到声学对齐,将学习负担分摊到多个注意力层中,相比单个注意力层具有更强的稳健性,并使用一个共同训练的发音速度预测器计算话语级别的
→
PDF
3 years ago
RA-UNet:一种用于提取 CT 扫描中肝脏和肿瘤的混合深度关注网络
提出了一种名为 RA-UNet 的三维残差关注分割方法,可精确提取肝脏感兴趣体积并从该体积分割肿瘤。结果表明,该架构在肝肿瘤分割任务上胜过其他最先进的方法,并在脑肿瘤分割任务上取得良好的性能表现。
PDF
6 years ago
Prev
Next