深度学习中的数据分离法则
研究使用新的神经网络架构和错误函数在图像分类任务中改进分类器准确性的影响,提出了优先采用在隐层中数据表征更具线性可分性的训练方法,通过实验证明该方法可行。
Jun, 2023
本文研究深度学习理论中深度分离问题,证明了使用过参数化的神经网络能够有效地学习深度函数构造,其中该结果依赖于一种新的扩展平均场极限到多层神经网络的方法和一种损失因式分解方法。
Apr, 2023
本文研究深度神经网络(DNN)在有监督图像分类中的表现,发现其学习到的数据表示可以分为两个不同的部分 —— 线性可分的表示和称为 “隧道” 的子网络的压缩表示,并探讨了隧道行为和其对持续学习的影响。
May, 2023
本文提出了一种基于层的鉴别性学习方法来增强深度神经网络的鉴别能力,在多个层上引入多个分类器,使它们协同工作进行分类,通过对多个深度网络和基准数据集的实验,证明了该方法的有效性,并分析了该方法和经典条件随机场模型之间的关系。
Jul, 2016
通过介绍层次相关传播方法,我们提出了一种新颖的深度可解释专利分类框架,用于提供人类可理解的预测解释。实验结果表明,对于各种评估指标,生成的解释突出了与预测类别相一致的重要相关词汇,使预测结果更易理解,并有助于推广复杂的 AI 专利分类方法在实际应用中的采用。
Oct, 2023
我们通过线性可分性度量深度神经网络的隐藏层输出来研究其特征,发现隐藏层输出的线性可分性度量与网络的训练性能存在同步性,即如果更新的权重可以增强隐藏层输出的线性可分性,更新后的网络将获得更好的训练性能,反之亦然。此外,我们研究了激活函数和网络规模(包括宽度和深度)对隐藏层线性可分性的影响,并通过数值实验证实了我们的发现在一些流行的深度网络上的有效性,包括多层感知器(MLP)、卷积神经网络(CNN)、深度置信网络(DBN)、ResNet、VGGNet、AlexNet、视觉 Transformer(ViT)和 GoogLeNet。
Jul, 2023
本文提出了一种有效的三阶段程序来量化成功的深度学习机制,通过 VGG-16、VGG-6 和 AVGG-16 的定量分析,发现每个 Convolutional 层的过滤器会选择一个独立于输入标签的单个输出标签子集,这是该机制不可或缺的一部分,并随着层数的增加而逐渐被加强,进而提高了信噪比和成功率,通过该机制,可以精确地识别每个过滤器的质量,有望指导进一步的程序改进深度学习的成功率、计算复杂度和延迟。
May, 2023