越界:深度学习及其 (非) 鲁棒性的严格理解
最近在机器学习和深度学习研究领域的重大突破为利用海量数据和优化包含数百万参数的庞大模型以获得图像处理方面的准确网络提供了出色的工具,进而为在自动化和人工智能行业中使用人工智能打开了巨大的机遇。然而,随着越来越多的模型在实践中得到部署和使用,也出现了许多挑战。本文介绍了解决在实践中使用机器学习和深度学习所面临的鲁棒性和可解释性挑战的多种方法。
Mar, 2024
我们描述了深度学习数学分析的新领域,涉及到超参数神经网络的普适性,深度对于网络的作用,感知问题的缺失,问题优化性能的成功和架构的各个方面对学习任务的影响,并提供了现代方法的概述和详细的主要思想。
May, 2021
比较了传统机器学习模型与深度学习算法在推广能力方面的差异,发现深度学习模型具有在训练数据范围之外进行推广的内在能力,对实际应用中的不完整或超出观测范围的数据具有重要意义。
Mar, 2024
该论文论述了深度学习虽然备受欢迎,但在商业分析领域普及存在困难,原因是计算复杂度、数据结构、缺乏透明度(黑匣子)和人才短缺等问题,而且在结构化数据集上无法优于传统的机器学习模型。因此,应该把深度学习视为现有机器学习模型的有力补充,而非通用解决方案。
May, 2022
以代数学习(Algebraic Learning)为核心的人工智能(AI)范式被提出,采用两个方法(即引导模型设计和二级测量)以增强模型的可解释性,弥补深度学习模型难以解释的不足。
Mar, 2022
通过深入的认识深度神经网络模型与传统科学模型之间的差异以及对可靠性评估可能产生的影响,本文强调了模型的假设的普遍作用和认识复杂性与可解释性之间的紧密关系,并提出了一些潜在的解决途径。
Jan, 2024
本章探索了机器学习(ML)中鲁棒性的基本概念及其在建立可信人工智能(AI)系统中的关键作用。讨论从详细定义鲁棒性开始,描绘了 ML 模型在各种意外环境条件下保持稳定性能的能力。通过不同视角剖析 ML 鲁棒性:与泛化能力的互补性,作为可信 AI 的要求,对抗性与非对抗性方面,定量评价指标,以及可重复性和可解释性等指标。本章深入探讨了影响鲁棒性的因素,如数据偏差、模型复杂性和不规范的 ML 流程的陷阱。从广泛的角度调查了鲁棒性评估的关键技术,包括对抗性攻击,包括数字和物理领域。它还涵盖了非对抗性数据转移和深度学习(DL)软件测试方法的细微差别。讨论进一步探索了增强鲁棒性的改进策略,从以数据为中心的方法如去偏和增强开始。进一步的研究包括各种以模型为中心的方法,如迁移学习、对抗训练和随机平滑等。最后,讨论了训练后方法,包括集成技术,修剪和模型修复,作为提高模型对不可预测因素的适应性的经济有效策略。本章强调现有方法对 ML 鲁棒性的估计和实现所面临的挑战和局限性,并为未来关于这一关键概念的研究提供了洞见和方向,作为可信 AI 系统的先决条件。
Apr, 2024
通过综合研究文献,本文广泛探讨了深度学习在各个学科中的潜在应用,以及相关的优势和挑战,验证了深度学习在预测分析方面的准确性和优势,使其成为一种强大的计算工具。深度学习独立于训练数据,因此需要大量的数据进行有效的分析和处理。为了处理大量的医疗、科学、医疗保健和环境数据,可以利用诸如 LSTMs 和 GRUs 的门控架构。对于多模态学习,神经网络中的共享神经元和特定任务的专用神经元是必要的。
Sep, 2023
这篇文章利用自然语言处理技术,针对多个领域的相关研究文献分析了深度学习技术的扩散和影响,在研究健康科学的过程中发现,深度学习技术的采用虽然与知识结构的颠覆和再组合的新颖性呈现负相关,但却能提高期望和引用性能方面的变异性。因此,深度学习方法可以作为一种通用的科学方法,以可衡量的方式推动科学的进展。
Sep, 2020