基于桥接连接的上下文自适应深度神经网络
本文研究深度学习在语义分割中的应用,通过引入“区域-区域”和“区域-背景”上下文信息,结合 CNN 和 CRF 模型来建立深度结构模型,实现图像区域与区域之间的语义关联性建模。采用高效的 piecewise 训练方法,克服 CRF 推理开销大的问题,同时引入多尺度训练和滑动金字塔保证对背景信息的适当捕捉,通过对 NYUDv2, PASCAL-VOC2012, Cityscapes, PASCAL-Context, SUN-RGBD, SIFT-flow 和 KITTI 数据集的全面评估,证明该方法在语义分割领域达到了最先进的水平。
Mar, 2016
ContextNet 提出了一种新的深度神经网络架构,利用分解卷积、网络压缩和金字塔表示等技术,实现了高效的全局上下文信息提取和高分辨率分割细节捕捉,从而在保持精度的前提下,降低了内存需求,实现了具备实时性和低存储成本的语义分割。
May, 2018
本文研究利用上下文依赖关系解决图像分割问题,提出了一种Context Prior神经网络,在特征集成时利用Affinity Loss监管不同类别的场景,从而提高了分割结果的准确性。实验证明,该网络在ADE20K,PASCAL-Context和Cityscapes的数据集中取得了较优的分割效果。
Apr, 2020
本文中,我们提出了可用于学习视觉模型的有效二进制神经模块。我们将二进制多层感知器(MLP)块作为二进制卷积块的替代方案,通过模型化短程和长程特征依赖关系来解决二进制模型上下文依赖关系的问题。我们构建了显式上下文依赖建模的BNNs,称为BCDNet,在标准的ImageNet分类基准测试中,BCDNet实现了72.3%的Top-1准确率,并以类似的操作超越了领先的二进制方法。
Sep, 2022
本研究引入了改进的Prompt Diffusion(iPromptDiff),结合端到端训练的视觉编码器和文本提示,使扩散式视觉基础模型在各种训练任务中展现了多功能性和稳健性,特别是在新的视觉任务中的上下文学习方面表现出了优异的能力。
Dec, 2023
输入$X$的上下文信息可以改善深度学习模型在新领域或生产环境中的预测能力。我们提出了上下文的概念,作为一组数据点的排列不变表示,共同学习于标准监督学习目标,为未知结果提供增量信息。我们通过理论分析和实证评估证明了该方法的有效性,并对其鲁棒性进行了探究。此外,我们还展示了一种选择最具预测性和最具鲁棒性模型的方法,从而避免了预测性能和鲁棒性之间的平衡问题。
Dec, 2023
通过探究决策边界对上下文二分类的定性行为,我们发现现有的大型语言模型在简单的二分类任务中学习到的决策边界通常是不规则且非平滑的,本论文研究了影响这些决策边界的因素,并探讨了提高它们泛化能力的方法。通过评估各种方法,包括对大型语言模型的无需训练和微调方法、模型架构的影响以及平滑决策边界的数据高效技术的有效性,我们的研究结果为理解上下文学习动态和改善其鲁棒性和泛化能力提供了更深入的认识和实用改进。
Jun, 2024
本文解决了通过借鉴人类视觉系统提高图像分类性能的问题。我们提出了一种新颖的生物启发神经网络,并引入上下文注意力模块来模拟上下文感知。实验表明,该方法在图像分类任务中表现出可观的性能提升和更强的解释鲁棒性。
Sep, 2024