- 从笔触到像素:AI 创作艺术中深度神经网络综述
本文探讨了 AI 生成艺术领域,深入研究了用于创造艺术的各种深度神经网络体系结构和模型,包括传统的卷积网络和最前沿的扩散模型,并且实例展示了这一领域的关键成果,总结了这些模型的优缺点,探讨了目前深度神经网络在短时间内所取得的显著进展,展现了 - 为卷积网络设计 BERT: 稀疏和分级掩码建模
本论文通过采用稀疏卷积和分层解码器等新技术,将 BERT - 风格的预训练方法推广到卷积神经网络领域,并且在 ResNet 和 ConvNeXt 等模型上进行了验证,在目标检测和实例分割等任务中,优于当前最先进的对比学习和变换器掩模建模方法 - 理解卷积滤波器的协方差结构
通过研究学习卷积核的协方差,提出了一种针对卷积滤波器的学习自由的多元初始化方案,该方案的性能优于传统的随机初始化方法,并且在某些情况下,即使不训练深度卷积滤波器,也可以提高性能。
- 语义感知细粒度对应
本文提出了一种语义感知的细粒度对应方法,该方法融合了基于图像和基于像素的自监督学习方法来提高任务的性能,在视频对象分割、人体姿态跟踪和人体部分跟踪等视觉对应任务上超过了以往基于卷积神经网络的最新自监督方法。
- 自动化人工智能方法对心脏共振成像的体积和双心室功能进行评估
报道了一种使用卷积网络来量化心脏双心室功能(体积,质量和射血分数)的新方法,并且在临床环境中验证了该方法的稳健性和计算时间。该方法使用解剖学信息来减少分类错误,并且在约 5 秒钟的时间内以与专家相当的准确度量化双心室功能和体积。
- 纠缠残余映射
本文提出了纠缠残差映射来推广残差连接的结构,并评估它们在迭代学习表示方面的作用。研究表明,在 CNN 和 Vision Transformer 中,纠缠稀疏映射可以帮助泛化,而正交映射会损害性能。在循环网络方面,正交残差映射形成了一种对时间 - ICLR从单细胞显微镜数据学习蛋白质的多尺度功能表征
本文发现了卷积网络可以学习蛋白质表征并且比自编码器模型表现更好。同时,提出了一种评估蛋白质表征质量的策略,并且关注蛋白质在细胞中的定位和荧光显微镜数据。
- CV4Code: 通过视觉代码表示理解源代码
CV4Code 是一种针对源代码的紧凑而有效的计算机视觉方法,不需要词法分析或语法树解析的步骤,它将代码片段视为二维图像,并使用 ASCII 码点图像表示方法,利用这种方法生成源代码图像非常快速且无冗余,进一步使用卷积神经网络和 trans - 通过内部过度激活分析防御来自物理可实现的对抗性攻击
这项研究提出了 Z-Mask,一种在卷积神经网络中提高物理可实现的对抗攻击鲁棒性的有效策略,通过特定的 Z 得分分析检测和遮盖输入图像中对应于对抗性对象的像素,其在语义分割和物体检测等任务中的表现均优于现有方法。
- 深度神经网络中 Gestalt 分组的证据存在不确定性
本文研究了 DNN 模型在场景感知和对象识别中是否存在类似人类感知的 Gestalt 现象,并发现不同类型的 DNN 模型在处理不同的刺激时,只在最后一个处理层表现出一定的 Gestalt 效应,但这种效应与人类感知的 Gestalt 效应 - ICLR高斯混合卷积网络
提出了一种基于多维高斯混合分析卷积的深度学习方法,该方法通过高斯混合卷积核和数据产生多个特征通道,使用高斯混合拟合来代替传统的转移函数(如 ReLU),并在适当减少高斯混合成分数量的情况下进行汇集,基于该架构的网络在封装 MNIST 和 M - 特征空间重构:神经网络中空间和频率的原则
通过无限宽度的卷积神经网络理论,研究神经网络的本质原理和泛化能力,提出一种基于层次局部性的新原则并证明了其对神经网络学习能力的提升,同时证明了无限宽度的深度卷积神经网络可以打破维数灾难并保持表达能力,并在有限和无限数据情况下提高性能。
- ICCV剪枝对对抗鲁棒性的影响
本研究探究了神经网络规模剪枝作为一种减少运算量形式的同时能起到正则化效果的方法,其可以提高 CNN 网络的泛化性和对抗性。研究结果表明规模剪枝能够有效地提高 CNN 网络对抗性,因此具有潜在的防御机制。
- 坐标无关卷积网络 -- 黎曼流形上的等变同构和规范卷积
该研究旨在为卷积神经网络设计一种与坐标系选择无关的卷积算法,在非欧几里得流形上实现平移不变性的同时,阐明了基于纤维丛的坐标无关卷积算法在欧几里得流形、球面、和一般曲面上的应用。
- CoAtNet:结合卷积和注意力处理不同数据尺寸
本篇研究介绍了 CoAtNets,这是一种基于 transformers 和卷积神经网络的混合模型,能够在图像识别领域取得最好的效果,相较于传统的 transformers 和卷积神经网络具备更好的泛化性能和效率。
- 使用小数据集高效训练视觉 Transformer
本文研究使用自监督任务和少量数据进行训练的 Visual Transformer 网络的表现,并发现新的自监督任务可以在空间关系方面鼓励 VT 网络,从而显著提高其小数据集准确性。
- 自监督视觉 Transformer 中的新兴特性
本研究探讨自监督学习是否为 Vision Transformer (ViT) 提供了与卷积网络 (convnets) 相比更为突出的新特性,发现自监督 ViT 特征明确包含图像的语义分割信息,在 ImageNet 数据集中取得了 78.3% - ConTNet:为什么不同时使用卷积和 Transformer?
本论文提出基于 Transformer 和 ConvNet 结构的 ConTNet 模型,相较于传统的 ConvNet 模型,可以更好地捕捉全局信息,从而部署在图像分类和物体检测等任务中,具有明显的优异性。
- CVPR基于相关性学习的多目标跟踪
本文提出了基于局部相关性模块的密集对应和可学习相关算子来增强模型的判别能力和对时间上下文的捕捉能力,从而在多目标跟踪方面取得了最先进的效果,并在 MOT17 数据集上实现了 76.5% 的 MOTA 和 73.6% 的 IDF1。
- 深度学习中神经注意力模型调查
该综述旨在提供一种全面的神经注意力模型开发和应用的现状和趋势的分析,系统回顾了数百种注意力模型的体系结构和应用,特别关注于卷积网络、循环网络和生成模型,描述了其在不同应用领域和神经网络可解释性上的影响。