BriefGPT.xyz
Ask
alpha
关键词
non-local self-attention
搜索结果 - 3
AAAI
DPText-DETR: 基于 Transformer 与动态点的更好的场景文本检测
本文提出了一种 DPText-DETR 算法,利用明确的点坐标直接生成位置查询,并动态地以渐进的方式更新它们。同时,提出了一种增强的分解自我注意力模块,为每个实例提供具有圆形形状指导的点查询,以及一种简单而有效的位置标签形式来解决之前形式的
→
PDF
2 years ago
AAAI
全注意力网络用于语义分割
该研究提出了 FLANet 方法,可以通过单个相似度图来同时编码空间和通道注意力,并在三个具有挑战性的语义分割数据集上最先进的性能达到 83.6%,46.99%和 88.5%。
PDF
3 years ago
ECCV
语义分割的张量低秩重建
本文提出了一种新的方法来建模三维上下文表示,该方法不仅避免了空间压缩,而且还解决了高秩困难问题。通过引入张量典范 - 解析分解理论,设计了一种低秩到高秩的上下文重构框架,实现了比传统的非局部方法更少百倍计算成本的最新技术。
PDF
4 years ago
Prev
Next