批判性地探讨深度神经网络 (DNN) 作为实现人工通用智能的技术选择的可行性,并给出了五个主要的原因进行支撑,表明 DNN 目前还不适合成为实现人工通用智能的选择。
Mar, 2022
该文章使用复杂网络中常用的技术研究了深度置信网络,以期获得从学习过程中得到的计算图的结构和功能特性的一些见解。
Sep, 2018
本文综述了近期深度神经网络在识别系统方面表现出的很高的性能,以及为数不多的数学解释其成功的理由,如全局最优性、几何稳定性和表示学习的不变性。
Dec, 2017
通过一系列的实验,我们评估了当前基于视觉的大型语言模型在直觉物理、因果推理和直观心理领域的表现。我们的研究结果表明,尽管这些模型在处理和解释视觉数据方面表现出显著的能力,但在这些领域仍然不如人类。这些模型对物理定律和因果关系有基本的理解,但缺乏更深入的洞察力 - 人类认知的一个关键方面。此外,在需要直觉心理理论的任务中,这些模型完全失败。我们的结果强调了将更强大的理解因果关系、物理动力学和社会认知机制整合到现代基于视觉的语言模型中的必要性,并指出了认知启发式评估标准的重要性。
Nov, 2023
该研究通过系统实验和理论构建发现,传统方法很难解释为什么大型神经网络的泛化性能良好,即使加入正则化仍然不会改变随机标记训练数据的状态,因为只要参数数量超过数据点数量,简单的两层神经网络就能实现完美的有限样本表达能力。
Nov, 2016
介绍了深度学习和神经网络模型(如卷积神经网络、递归神经网络、生成对抗网络)以及训练技术(如随机梯度下降、dropout、批量归一化)的统计学观点,强调了深度学习的新特征(包括深度和过参数化)及其实际和理论上的好处,同时探讨了深度学习的理论基础和最新研究成果;期望为新的统计研究提供一种思路。
Apr, 2019
本论文在研究深度神经网络的高层特性时,发现高层单元与随机线性组合之间没有明显差别,并得出神经网络学习的输入输出映射具有不连续性以及网络可被微小扰动误分类等结论。
Dec, 2013
综述了深度学习在计算机视觉、自然语言处理、时间序列分析和普适计算领域的最新模型以及其在解决各个领域问题中的有效性,并介绍了深度学习的基础知识、各种模型类型以及重要的卷积神经网络架构,并讨论了深度学习研究的挑战和未来方向。
Mar, 2024
该论文探讨了神经网络的复兴及其对人工智能领域的影响,介绍了监督学习和深度学习等技术的应用和优劣势,同时也指出了一些伦理和技术上的问题和挑战。
Oct, 2022
基于对 DL 学习动态的观察,提出了一种基于复杂特征构建的新理论。
Jul, 2023