通过使用 DNN 验证技术,我们引入了一种新的方法来识别具有稳健泛化能力的 DNN 决策规则,并在真实世界环境中进行了广泛评估,为部署 DNN 驱动系统提供了新的验证目标。
Jun, 2024
该研究旨在通过知识蒸馏和梯度滤波的方法提出一种简单而有效的训练策略以增强卷积神经网络在缺乏充足和代表性数据时的泛化能力,并通过多种任务的实验结果表明其有效性以及如何进一步提升深度神经网络的泛化能力。
Jul, 2021
针对系统安全和可信度需要进行深入测试的 DNN (DNN 指深度神经网络) 组件,提出了一种基于深度生成模型算法的有效测试方法,以消除无效的测试并提高测试输入的有效性。
Feb, 2021
深度神经网络在人工智能领域带来了革命性的进展,但面对分布转移时常常缺乏性能。传统神经网络假设训练和测试数据服从同一分布,然而实际应用中这一假设经常被违反。元学习作为一种有前景的方法,通过获取可传递的知识来快速适应各种任务,从而消除了从头学习每个任务的需求。本文基于特征提取策略和分类器学习方法的新分类法,全面调查了元学习在领域泛化方面的贡献,详细介绍了该领域的基础知识,并提供了关于未来研究方向的实践见解和深入讨论。
Apr, 2024
本文主要研究基于深度神经网络的方法在训练数据与测试数据分布不一致时的性能问题,并通过学习训练样本的权重以消除特征之间的依赖关系,从而提高深度模型的性能。通过在多个分布泛化基准测试上的实验,与同类研究相比,我们的方法取得了很好的效果。
Apr, 2021
本文通过分析神经核算法的光谱,提供了对于训练和推广条件的表征,特别地,在讨论极深和宽的神经网络时,发现神经核数仅仅维持有限的数据相关性,并考虑各种网络模型在很大的超参数空间区域内训练集过度拟合而且通常无法推广;同时,与深度神经网络及其卷积形式的全局平均池化相关的理论和实验结果得到了分析。
Dec, 2019
提出了 4 种新的测试标准,为结构性特征和语义定制的深度神经网络,并通过对当前最先进的人工神经网络数据集进行实验来验证其有效性,以平衡测试用例生成的计算成本和发现缺陷的能力,同时在代理中使用对抗性例子。
Mar, 2018
本研究探讨了基于域一般化的经验和认证鲁棒性之间的相互影响,并发现两种鲁棒性均适用于未知的数据域。同时我们也证明,在医学应用中,对抗性增强显著提高了鲁棒性的泛化能力,对数据准确性影响不大。
Sep, 2022
对神经网络的测试方法进行研究,提出了一种覆盖所有逻辑的覆盖率准则,并探讨了改进方法和需要快速、可扩展、通用的端到端测试方法的必要性。
Feb, 2019
该论文提出深度学习系统的多层次测试标准 DeepGauge,以应对其漏洞和不足,经过对多个数据集和攻击技术的分析得出结果,有望构建更加稳健的深度学习系统。