BriefGPT.xyz
Ask
alpha
关键词
self-attention maps
搜索结果 - 4
稳定传播中文本引导图像编辑中跨域与自注意力的理解
通过对 Stable Diffusion 模型进行深入分析,发现交叉注意力映射中的对象归属信息容易导致编辑失败,而自我注意力映射在源图像到目标图像的转换过程中起到了关键保留几何和形状细节的作用。在此基础上,我们提出了一种更简化、更稳定、更高
→
PDF
4 months ago
ICCV
聚焦差异:内部和外部相关性学习的图像异常检测
我们提出了一种新的异常检测框架:FOcus-the-Discrepancy(FOD),通过改进 Transformer 中的自注意力映射为 Intra-Inter-Correlation(I2Correlation)来同时发现异常的花纹内部
→
PDF
a year ago
使用 Swin Transformer 中基于头部梯度注入自注意力映射的弱监督颅内出血分割在分类学习中的应用
本研究提出了一种基于 Swim transformer 的弱监督颅内出血分割方法,并将其与基于 U-Net 的全监督方法及使用 Grad-CAM 的类似弱监督方法进行了比较,结果显示该方法具有良好的医学图像分割潜力。
PDF
a year ago
WeakTr: 探索用于弱监督语义分割的普通视觉 Transformer
本文探讨了 Vision Transformer (ViT) 在弱监督语义分割 (WSSS) 中的属性。在提出的 WeakTr 框架中,通过自适应融合自注意力图来具有更完整的对象的高质量 CAM 结果。在标准基准测试中,WeakTr 实现了
→
PDF
a year ago
Prev
Next