BriefGPT.xyz
Ask
alpha
关键词
self-attention blocks
搜索结果 - 2
PF-LRM:用于联合姿态和形状预测的无姿态大型重建模型
我们提出了一种无姿势大重建模型(PF-LRM),可以从少数非姿势图像中重建三维物体,即使视觉重叠很少,同时在单个 A100 GPU 上估计相对相机姿势,仅需约 1.3 秒。PF-LRM 是一种高度可扩展的方法,利用自注意力块在三维物体标记和
→
PDF
8 months ago
用于高效物体跟踪的可分离的自注意力与混合注意力变换器
本文提出了一种用于轻量级追踪的高效自适应混合注意力变压器架构,实现了对相关轻量级追踪策略的显著改进,达到了先进的性能,在多个数据集上运行时帧率较高,参数量较小。
PDF
10 months ago
Prev
Next