BriefGPT.xyz
Ask
alpha
关键词
gated relu network
搜索结果 - 1
修复 NTK:从神经网络线性化到精确的凸规划
该研究旨在解释门控 ReLU 网络的凸规划问题并建立其与神经切向核(NTK)之间的联系,通过迭代重新加权来提高 NTK 引导的权重以获得最优的多核学习(MKL)核,该核等同于凸规划问题的解,并提供了对最优核的预测误差的分析结果,并通过群套索
→
PDF
9 months ago
Prev
Next