使用生成模型进行神经网络的分布感知测试
提出了 4 种新的测试标准,为结构性特征和语义定制的深度神经网络,并通过对当前最先进的人工神经网络数据集进行实验来验证其有效性,以平衡测试用例生成的计算成本和发现缺陷的能力,同时在代理中使用对抗性例子。
Mar, 2018
通过 DeepKnowledge 系统测试方法,可以评估 DNN 的可靠性和泛化能力,并通过提供测量信息和检查测试集的传输知识容量来改善 DNN 的稳健性。
Mar, 2024
本文旨在通过情感测量的方式来识别深度神经网络模型的弱点。通过三种情感测量指标:置信度、不确定性和惊奇度的比较,发现这些指标能够有效地通过对模型计算的分析来辨识出暴露 DNN 行为不当的输入。
Jan, 2019
通过使用所学深度神经网络模型的表示进行筛选测试数据,借助交叉熵算法进行高维分布采样,可以有效地更加精确地测试神经网络模型的可靠性,需要的标签数据量大大减少。
Jun, 2019
该论文提出了一种名为 TheDeepChecker 的端到端基于属性的调试方法,以检测深度神经网络训练程序中的编码错误和系统失配,并表明其在检测准确性和深度学习故障覆盖面方面优于 Amazon SageMaker Debugger(SMD)的离线规则验证。
Apr, 2022
通过使用 DNN 验证技术,我们引入了一种新的方法来识别具有稳健泛化能力的 DNN 决策规则,并在真实世界环境中进行了广泛评估,为部署 DNN 驱动系统提供了新的验证目标。
Jun, 2024
通过概率抽样,研究了五种新的基于抽样的测试技术以及其他三种先进技术,以实现对深度神经网络在运行中准确度的忠实和高置信度估计,从而降低成本。
Mar, 2024
本文提出了一种新的鲁棒性测试方法,考虑到输入分布和输入质量,在特征和像素级别进行分层分析,证实该方法在检测对抗性样本和改进深度学习模型鲁棒性方面比现有技术更加优越。
May, 2022
本文讨论了深度学习系统在测试中存在的漏洞和不公平性问题,提出了使用 6 个度量标准进行有针对性的测试的方法,并以实验证明该方法比传统多样性方法更为有效。同时,指出了软件工程界和深度学习领域之间存在的差异,以期在未来拓宽两者的研究实践。
May, 2023