计算机视觉深度学习方法的非对抗性鲁棒性
文章提出了从基于扰动的对抗鲁棒性转向基于模型的鲁棒深度学习的新范式,并探讨了使用深度生成模型来学习自然变化模型并进一步提高深度学习对于自然变化的鲁棒性的三种新型算法,实验表明,该方法在自然情况下能够超越标准深度学习算法和基于范数的鲁棒深度学习算法。
May, 2020
人工智能应用越来越受到公众的关注,然而研究者在计算机视觉模型的理论假设与实际部署时面临一种被称为分布偏移的困境。本文讨论了识别这一突出差距的重要原因,探索了分布偏移的概念及其关键意义,并对数据中心领域用于解决这些问题的技术进行了深入概述。
Dec, 2023
本研究探讨了基于域一般化的经验和认证鲁棒性之间的相互影响,并发现两种鲁棒性均适用于未知的数据域。同时我们也证明,在医学应用中,对抗性增强显著提高了鲁棒性的泛化能力,对数据准确性影响不大。
Sep, 2022
本研究旨在建立一个全面、严谨、连贯的标准来评估对抗性鲁棒性,通过两个鲁棒性曲线作为公正的评估标准来进行大规模实验,全面掌握攻击与防御方法的表现并得出重要结论和未来研究的启示。
Dec, 2019
近年来,对神经网络的稳健性评估引起了极大关注,深度学习的稳健性问题特别突出,研究人员致力于在图像识别任务中评估稳健性,在此综述中,我们对神经网络评估中敌对稳健性和扰动稳健性进行了详细研究,分析当前研究和标准,提供了图像识别中稳健性评估的广泛概述,分析了概念、度量标准和评估方法,研究了用于度量图像扰动程度的扰动度量和范围表示,以及特定于分类模型稳健性条件的稳健度量,还讨论了现有方法的优势和局限性,并提供了一些未来研究的潜在方向。
Apr, 2024
最近在机器学习和深度学习研究领域的重大突破为利用海量数据和优化包含数百万参数的庞大模型以获得图像处理方面的准确网络提供了出色的工具,进而为在自动化和人工智能行业中使用人工智能打开了巨大的机遇。然而,随着越来越多的模型在实践中得到部署和使用,也出现了许多挑战。本文介绍了解决在实践中使用机器学习和深度学习所面临的鲁棒性和可解释性挑战的多种方法。
Mar, 2024
本章探索了机器学习(ML)中鲁棒性的基本概念及其在建立可信人工智能(AI)系统中的关键作用。讨论从详细定义鲁棒性开始,描绘了 ML 模型在各种意外环境条件下保持稳定性能的能力。通过不同视角剖析 ML 鲁棒性:与泛化能力的互补性,作为可信 AI 的要求,对抗性与非对抗性方面,定量评价指标,以及可重复性和可解释性等指标。本章深入探讨了影响鲁棒性的因素,如数据偏差、模型复杂性和不规范的 ML 流程的陷阱。从广泛的角度调查了鲁棒性评估的关键技术,包括对抗性攻击,包括数字和物理领域。它还涵盖了非对抗性数据转移和深度学习(DL)软件测试方法的细微差别。讨论进一步探索了增强鲁棒性的改进策略,从以数据为中心的方法如去偏和增强开始。进一步的研究包括各种以模型为中心的方法,如迁移学习、对抗训练和随机平滑等。最后,讨论了训练后方法,包括集成技术,修剪和模型修复,作为提高模型对不可预测因素的适应性的经济有效策略。本章强调现有方法对 ML 鲁棒性的估计和实现所面临的挑战和局限性,并为未来关于这一关键概念的研究提供了洞见和方向,作为可信 AI 系统的先决条件。
Apr, 2024