通过开发一种名为 AC-CNN 的新型神经网络模型,将全局和局部上下文信息有效地结合到区域卷积神经网络中,提高了目标检测性能,特别是在 PASCAL VOC 2007 和 VOC 2012 数据集上,与目前主流的 Fast-RCNN 算法相比在 mAP 方面分别提高了 2.0%和 2.2%
Mar, 2016
该论文提出了一种基于全局上下文动态调整卷积层权重的上下文门控卷积(CGC)方法,旨在更好地提取本地模式和生成区分特征,经过大量实验,该方法在图像分类、动作识别和机器翻译等任务上均有显著的性能提升。
Oct, 2019
本文介绍了一种新的视觉表示范式 - 环境群聚 (Context Clusters),可通过简化的聚类算法在一组未组织的点中提取特征,无需卷积或注意力机制,并提供了可视化聚类过程的令人满意的可解释性。在几个基准测试中,Context Clusters 可达到与 ConvNets 或 Vision Transformers 相当甚至更好的结果。
Mar, 2023
该论文提出了一种新颖的 Transformer 风格模块,即 Contextual Transformer (CoT) 块,它完全利用输入键之间的情境信息来指导动态注意力矩阵的学习,从而增强了视觉表示能力,可作为更强大的骨干网。
Jul, 2021
提出了一种名为 ATTCONV 的基于关注机制的卷积神经网络,该网络凭借从非线性上下文中提取的信息和集成到卷积操作中的关注机制,在句子级表示学习方面具有有效性。
Oct, 2017
该研究探讨了利用空间上下文作为丰富的视觉表征的监督信号的方法。通过从每个图像中提取随机配对的路径来训练卷积神经网络,用于预测第二个路径相对于第一个路径的位置,从而实现对目标的识别,并证明该方法在性能上优于其他算法。
May, 2015
本篇论文通过坐标转换问题展示了卷积神经网络的局限性,提出了 CoordConv 解决方案,它通过在卷积中引入额外的坐标通道,为神经网络提供了输入坐标的信息,从而可以学习任意程度的平移不变性和变化的空间表示。CoordConv 具有比卷积更高效的计算速度和更少的参数,可以有效提高模型的性能。
Jul, 2018
本文提出了一种综合局部外观特征,对象关系的上下文信息和全局场景上下文特征的集合物体检测系统,该系统采用基于对象建议的完全连接条件随机场(CRF)进行建模,并利用快速平均场近似方法有效地进行 CRF 模型中的推理,实验结果表明,与基线算法 Faster R-CNN 相比,我们的方法在 PASCAL VOC 2007 数据集上实现了更高的平均精度(mAP).
Apr, 2016
本文报道了一种新的 CNN-RNN-transducer 结构 ContextNet,它包括一个全卷积编码器,通过添加 squeeze-and-excitation 模块将全局上下文信息嵌入到卷积层中,以及一个简单的缩放方法,实现了计算和准确度之间的良好折衷,这种模型在多个基准测试集上显著优于其他模型。
May, 2020
本文提出了一种上下文自适应卷积神经网络 (CaC-Net),用于语义特征映射的空间变化特征加权。实验证明,CaC-Net 在语义分割任务中的性能优于其他方法。
Apr, 2020