BriefGPT.xyz
Ask
alpha
关键词
hierarchical attention model
搜索结果 - 4
ACL
HAHE: 全球和本地层次上的超关系知识图谱的分层注意力
本研究提出了一种用于超关系知识图 (HKG) 嵌入的分层注意力模型 (HAHE),该模型具有全局级别和本地级别的注意力机制,可以有效地建模 HKG 的图形和顺序结构,实现了在 HKG 标准数据集上的前沿预测效果。
PDF
a year ago
ECCV
HAM:面向 3D 视觉定位的高性能分层注意力模型
本文主要介绍了针对 3D 点云的视觉定位问题,提出了基于 Transformer 和 Hierarchical Attention Model 的端到端模型,通过对三个基本问题的解决来提高模型性能,实验结果表明 HAM 模型能够在多模态视觉
→
PDF
2 years ago
ICCV
弱监督指代消解的自适应重建网络
本文提出了一种使用自适应重建网络 (ARN) 解决弱监督引用表达地面问题的方法,该模型使用分层注意模型计算每个提案和查询之间的匹配分数,并采用语言重建损失、自适应重建损失和属性分类损失协同重建输入查询,实验证明 ARN 比现有的最新方法在四
→
PDF
5 years ago
EMNLP
层级注意力网络在文档级神经机器翻译中的应用
本文提出了一种层次化的注意力模型,通过在神经机器翻译中引入文本级的上下文信息,有效提升了翻译的质量。实验结果表明,编码器和解码器都对上下文信息做出了积极贡献。
PDF
6 years ago
Prev
Next