BriefGPT.xyz
大模型
Ask
alpha
关键词
over-parameterized networks
搜索结果 - 4
对抗训练中过拟合的深度神经网络能否泛化?— 一种近似观点
对深度神经网络(DNN)进行逆向训练以提高其对敌对扰动的鲁棒性是一种被广泛采用的方法。然而,经验观察到,对于超参数化网络的逆向训练往往存在 “鲁棒过拟合” 问题:它可以实现接近于零的逆向训练错误,但鲁棒性的泛化性能不佳。本文从逼近的角度对逆
→
PDF
5 months ago
基于响应、特征和关系的知识蒸馏分类
这篇论文提供了一份全面的知识蒸馏调查,包括知识类别、蒸馏方案和算法,以及一些性能比较的实证研究。
PDF
a year ago
MM
神经切向核方法的神经网络修正
使用神经切比洛夫核方法,获得了网络训练误差上限、网络大小不变的泛化误差上限,以及一个简单且解析的核函数,能够优于相关网络,但需要注意网络缩放因子的问题。本文对原有方法进行修正,提出了更加严格的误差上限,解决了缩放问题。
PDF
4 years ago
校准和修剪:通过预测校准提高彩票票据的可靠性
本文首次研究了过参数化网络中显式置信度校准对产生的 Lottery Tickets 的影响,并发现采用校准机制可以更有效地提高准确性和校准度。
PDF
4 years ago
Prev
Next