基于分割先验的区域自适应变换图像压缩
提出了一种称为 SemAffiNet 的基于 Transformer 模块的点云语义分割方法,其中采用了语义仿射变换技术来增强中层特征的语义信息,以解决传统方法中对局部几何的过度依赖,有效提高了整体分类效果。
May, 2022
该研究提出了一种利用卷积神经网络 (CNN) 中的分割信息的方法,通过设置 CNN 来提供嵌入空间来获取分割信息,以便在局部感受野范围内使每个神经元可以选择性地关注来自其本身区域的输入,因此适应于局部分割提示,在两个密集预测任务中展示了性能优于进行过增强的基线的结果。
Aug, 2017
基于区域转换器的自我注意力机制的增长式点云分割模型优于以往的通用类和特定类方法,通过自我注意力捕捉远距离依赖关系,在训练过程中避免了对语义标签的需求,适用于灵活的点云分割,并可应用于机器人技术、数字化双生和自动驾驶等领域。
Mar, 2024
提供一种新的架构 Mask2Former,该架构通过应用掩蔽注意力机制提取局部特征来解决多种类型的图像分割任务,包括全景分割、实体分割和语义分割,并且优于当前最佳的专门任务架构。
Dec, 2021
该研究提出了一种改进的变压器 (Transformers) 自回归先验模型及 ConvNeXt-based 预 / 后处理器,并将其应用于图像压缩,提高了压缩效率和解码复杂度的权衡。
Jul, 2023
本文提出了 Segmenter,一种用于语义分割的 Transformer 模型,利用一种点刀线性解码器或一个 mask transformer 解码器将图像分割为不同的类别,通过对模型参数的分析,表明 Segmenter 在 ADE20K 和 Pascal Context 数据集上具有良好的性能。
May, 2021
本文提出了一种基于 transformer 学习的图像压缩系统,通过使用 prompt generation 网络,支持 RO I 功能,并允许同时实现可变速和 ROI 编码。实验结果表明,该方法优于其他竞争方法。
May, 2023
本文提出了一种基于 Transformer 的端到端图像压缩和分析模型,实现云端图像分类应用,并通过两步训练策略解决了率失真精度优化问题。实验结果表明,该模型在图像压缩和分类任务中均具有有效性。
Dec, 2021
本文提出了一种新颖的双自适应掩膜 (DA-Mask) 方法,该方法结合了贴片结构和纹理分布,在极低比特率下有效压缩图像。同时,该研究还结合预先训练的掩膜自编码器 (MAE) 和 DA-Mask 以及 LIC 网络提出了一种基于贴片图像建模 (MIM) 的掩膜压缩模型 (MCM) ,该方法在 R-D 性能、可视质量和下游应用方面优于最新的同类研究。
Jun, 2023