BriefGPT.xyz
Ask
alpha
关键词
implicit training biases
搜索结果 - 1
从向后错误分析的角度看多任务和持续学习中的隐含偏差
使用反向误差分析为神经网络在多任务学习和持续学习设置中计算隐含的训练偏差,并推导出通过随机梯度下降训练时隐含地最小化的修改后的损失函数,其中包括原始损失、隐含的平直度正则化项与冲突项。这里,冲突项可理论上对收敛和隐含正则化产生不良影响,在多
→
PDF
8 months ago
Prev
Next