- 基于公理的 Grad-CAM:CNN 的准确可视化和解释
本文提出了两个公理– 保守性和灵敏度,为 CAM 方法的可视化范式引入了理论支持,并提出了一个专门基于公理的 Grad-CAM(XGrad-CAM),以尽可能地满足这些公理。实验证明,相对于 Grad-CAM++ 和 Ablation-CA - 使用时序挤压池化学习时空表示
本文提出了一种新的视频表示学习方法,即 Temporal Squeeze(TS)池化,该方法可以从长序列的视频帧中提取必要的移动信息,并将其映射成一组少量的图像。将 Temporal Squeeze pooling 作为层嵌入到现有的卷积神 - 翻译不敏感 CNN
使用高斯厄米基函数在 CNN 框架内高效逼近任意滤波器的方法,可以达到平移不变性,保持训练效率,同时实现子取样以保证平移不敏感性,为设计指导提供指导原则。
- NIPS递归、概率、卷积和分类计算
本文主要探讨了可伸缩的计算结构方法,特别是针对大规模的关系计算、数学计算和图计算。文章提出了使用人工智能 / 机器学习中诸如贝叶斯网络(BN)和卷积神经网络(CNN)等强大的计算表达形式来翻译计算的解决方案,从而重构和并行化计算,以达到高性 - 从原始语音进行语音情感的直接建模
本文提出了一种基于并行卷积层的方法,在特征提取单元中利用多个时间分辨率来共同训练 LSTM 分类神经网络。该方法可用于处理原始语音数据的情感识别任务,并可以达到使用手工制作特征训练 CNN 的性能水平。
- 基于模 motif 的注意力机制的图卷称神经网络
本文提出了一种新颖的框架,可以在任意图上学习空间和关注卷积神经网络,通过子图归一化和自我关注层,可以显著提高传统图内核和现有深度模型的图分类基准。
- 使用 Siamese CNN 和 LSTM 预测语义文本相似性
本文介绍了一种结合卷积神经网络和递归神经网络用于度量句子语义相似性的系统,使用卷积网络考虑单词的局部上下文和 LSTM 考虑句子的全局上下文,能够保留句子相关信息,并在句子相似性计算方面取得了良好的结果,具有和最优秀系统相竞争的优势。
- 面向资源受限的卷积神经网络的分层补偿剪枝
本研究提出一种新算法 —— 层补偿剪枝,采用元学习来确定更优的解决方案,成功将网络剪枝后的准确度降低到 0.7%,且由 1 小时缩短至 7 分钟的元学习时间可以节省大量资源和时间成本。
- IJCAI基于注意力机制的骨架动作识别算法
本研究旨在提出一种时间和空间相结合的新方法用于解决基于骨架的动作识别中的挑战,该方法利用内存关注网络(MANs)并将时间和空间校准模块与卷积神经网络(CNNs)相结合,最终在四个基准数据集(NTU RGB + D,HDM05,SYSU-3D - MM卷积和递归神经网络相结合进行情感分析
研究了句子级情感分析中使用的卷积神经网络和递归神经网络的局限性以及利用转移学习和词嵌入等技术来优化这些方法,并提出结合两种网络的新型网络结构,此结构相对于先前的方法表现更优,性能相当于 Stanford 情感树库的最先进的系统。
- CVPRLSTM 姿势机
本文提出一种采用循环神经网络 (RNN) 的姿态估计方法,该方法通过权重共享进行优化,成功地解决了多阶段卷积神经网络在视频中应用中的问题,并在两个视频姿态估计基准测试中显著优于当前的最佳方法。
- 零样本识别的最新进展
本文综述了现有零样本识别技术的方方面面,包括模型表示、数据集、评估方式等,并简要介绍了一些相关的识别任务,如一次性识别和开放集识别等。同时,我们也指出了现有方法的局限性以及未来的研究方向。
- 卷积神经网络在图像反问题中的综述
本文综述使用卷积神经网络解决成像中的反问题的最新进展,并重点关注了设计决策,即训练数据的来源,CNN 的架构以及如何解决学习问题等关键理论。
- NIPS学习图形的同时进行训练:一种进化的图卷积神经网络
本文提出了更加普适和灵活的图卷积神经网络(EGCN),由任意形状的数据和它们的演化图拉普拉斯共同训练,以监督方式进行。通过对多个图结构数据集的大量实验,证明了此方法在加速参数拟合和显著提高预测精度方面具有优越性能。
- KEPLER: 通过学习高效的 H-CNN 回归器完成不受限制面部的关键点和姿态估计
本文介绍了一种名为 KEPLER 的基于 H-CNN Regressors 的迭代方法,用于学习无约束人脸的关键点估计和姿态预测,该方法结合了全局和局部结构特征以提高关键点检测的准确性,并在不使用 3D 信息的情况下,在 AFW 和 AFL - 基于区域潜在语义相关性的多标签图像分类
本论文提出了一种区域潜在语义依赖模型,该模型使用卷积神经网络和递归神经网络相结合,能够有效预测多标签图像分类中小物体和视觉概念,同时不需要使用边框注释实现最佳性能。
- 内存受限的深度卷积神经网络
本研究探讨了在卷积神经网络的训练过程中使用稀疏性正则化的方法。我们的实验结果表明,使用这种正则化方法可以大幅减少神经网络所需的存储和计算开销,并且不会显著降低准确性。