坚持不懈:减轻深度学习中的捷径之路
本文通过观察 Deep Neural Networks (DNNs) 内部神经元的学习动态,提出了易学特征会导致 Shortcut Learning 的假设,并用实验验证了此假设。文章主张在早期的训练动态中监测模型的表现而非仅仅监测模型准确率。
Feb, 2023
本文介绍深度学习中的 shortcut learning 问题,该问题用于在标准基准测试中表现良好的决策规则在更具挑战性的测试条件下失败,作者提出了一些模型解释和基准测试的建议,以改善从实验室到真实世界应用的稳健性和可迁移性。
Apr, 2020
该研究综述了拓扑数据分析(TDA)在神经网络分析中的应用,并通过使用 TDA 工具如持久性同调和 Mapper 来探究神经网络及其数据集的复杂结构和行为。研究讨论了从数据和神经网络中获取拓扑信息的不同策略,并回顾了拓扑信息如何被利用来分析神经网络的特性,如其泛化能力或表达能力。重点讨论了深度学习在对抗检测和模型选择等领域的实际应用。将研究工作分为四个广泛领域:1. 神经网络架构的特征化;2. 决策区域和边界的分析;3. 内部表示、激活和参数的研究;4. 训练动态和损失函数的探索。在每个类别中讨论了几篇文章,并提供背景信息,以帮助理解各种方法。最后,综合研究获得的关键见解,讨论了领域中的挑战和潜在进展。
Dec, 2023
本文应用拓扑数据分析的前沿技术,通过量化内部表示之间的差异和绘制网络层次结构图等方法,探索了用于图像分类的深度神经网络的可解释性,并提供了实验证据证明这些方法能够捕捉到有关模型过程的可贵结构信息。
Dec, 2022
Topological Deep Learning 解决复杂系统数据处理与知识提取的框架,但目前 Topological Neural Network 研究缺乏统一的符号和语言。本文提供对 TDL 可访问的介绍,并使用统一数学和图形符号比较最近发表的 TNN。通过对 TDL 领域的直观和批判性评估,提取有价值的见解,为未来发展提供激动人心的机遇。
Apr, 2023
本文介绍了如何使用微分拓扑理论来解决 Deep Neural Networks 理论中的三个最基本挑战:表达能力,优化能力和泛化能力,特别是利用流形的微分拓扑模型来阐述 DNN 的损失函数、深度和宽度之间的交互,以及如何通过应用商拓扑来捕捉数据中的无关因素,从而实现对 DNN 架构的研究。
Nov, 2018
在卷积深度神经网络的内部状态上进行拓扑数据分析,以开发对其执行的计算的理解。应用此理解修 改计算以(a)加速计算和(b)改进从一组数字到另一组数字的泛化能力。分析的副产品之一是在图像数据集的新特征上产生几何体,并利用此观察结果开发出一种用于构建许多其他几何体的 CNN 模型的方法,包括由拓扑数据分析构建的图形结构。
Nov, 2018
通过利用拓扑数据分析,我们建立了一个通用的计算工具,可以有效地计算深度神经网络的内在维度,从而预测其泛化错误。我们发现,误差可以用所谓的 “持久同调维数” 来等价限制,同时不需要对训练动力学进行任何额外的几何或统计假设,并且进一步提供可视化工具来帮助理解深度学习中的泛化。
Nov, 2021