神经网络架构讲义
本文简要介绍了卷积神经网络(CNN),讨论了最近发表的论文和开发这些出色的图像识别模型的新技术。CNN 主要用于解决难以处理的图像驱动的模式识别任务,并采用精确而简单的结构,为人工神经网络提供了一个简化方法。
Nov, 2015
本文综述了现有的方法,囊括了计算机领域中的神经体系结构搜索、自动化方法和深度学习等方面,内容包括常用的体系结构搜索空间和基于强化学习和进化算法的体系结构优化算法、模拟模型和单次模型。同时,文章对新的研究方向进行了探讨。
May, 2019
本文介绍了一些基于最近深度学习的集体知识挖掘的神经网络结构设计原则,并提出了 FractalNet、Stagewise Boosting Networks 和 Taylor Series Networks 等创新型架构。
Nov, 2016
本文概述了深度学习的一些关键多层人工神经网络以及使用多智能体方法的新型自动体系结构优化协议;以及深度学习在异常行为检测、预测和预测分析、医学图像处理和分析、电力系统研究等应用领域的探索性调查。
May, 2019
本文考虑在神经科学和机器学习之间建立联系,提出脑部通过优化各式各样的代价函数来实现数据高效学习和定向行为,其中包括关注、递归等结构体系和各种形式的短时和长时记忆存储,作者提出了未来神经科学试图改进和检验这些假设的方向。
Jun, 2016
本文综述了近年来人工神经网络和机器学习领域所取得的进展和对于成功和微妙性的理解,通过数值实验和简化模型的分析,以及严谨的数学结果,讨论对于这个快速发展领域最重要的开放性问题。
Sep, 2020
本文从深度卷积神经网络的内在分类入手,将现有研究成果归纳为七大类,即空间利用、深度、多路径、宽度、特征图利用、通道增强和注意力,同时介绍 CNN 组件的基础理解、当前挑战和应用领域。
Jan, 2019
本文旨在比较和描述神经网络结构在几何和拓扑方面的内部表示和层间数据流动的拓扑和几何动态变化,并使用拓扑数据分析和持久性同调分形维数的概念,通过不同层次的数据集以及卷积神经网络和转换网络在计算机视觉和自然语言处理任务中的各种配置的广泛实验,为可解释的和可解释的 AI 的发展做出了贡献。
Jun, 2023
这篇研究论文是一门名为《神经网络导论》的课程的讲义,旨在向研究生数学学生介绍神经网络,并使他们对进一步研究神经网络感兴趣。该课程分为两部分:第一部分是关于深度学习的总体介绍,以形式化数学的方式引入该领域;第二部分介绍李群和齐次空间的理论,并说明如何将其应用于设计具有良好几何等变性的神经网络。讲义力求自包含,适合具备适度数学基础的学生。课程还包括使用 Jupyter 笔记本的编程教程和作业,具体内容可在提供的链接中公开获取。
Mar, 2024