BriefGPT.xyz
Ask
alpha
关键词
input gradient regularization
搜索结果 - 3
选择性输入梯度正则化的政策蒸馏以实现高效可解释性
本研究提出了一种称作 Distillation with selective Input Gradient Regularization (DIGR) 的方法,利用政策精炼和输入梯度正则化生成新政策,从而实现生成适用于实景且高效的可解释性
→
PDF
2 years ago
利普希茨正则化深度神经网络的泛化性能和防御对抗攻击能力
本文研究了深度神经网络的输入梯度正则化,并证明了这种正则化可以导致泛化证明和改进的对抗性稳健性。通过将对抗训练与 Lipschitz 正则化相结合,可以使模型更加稳健,并且可以使用图像的梯度范数进行攻击检测。
PDF
6 years ago
AAAI
通过约束输入渐变来提高深度神经网络的对抗鲁棒性和可解释性
本研究评估了不同防御机制对神经网络的有效性,发现使用输入梯度规则化训练的神经网络具有抵御小幅度扰动的鲁棒性,并且可以提高预测的可解释性。同时,对这种神经网络产生的误分类可以解释,并进一步讨论了深度神经网络中解释性和鲁棒性之间的关系。
PDF
7 years ago
Prev
Next