BriefGPT.xyz
Feb, 2020
神经常微分方程中的随机性:实证研究
Stochasticity in Neural ODEs: An Empirical Study
HTML
PDF
Viktor Oganesyan, Alexandra Volokhova, Dmitry Vetrov
TL;DR
本文对几个图像分类任务进行了随机正则化神经 ODE 的实证研究,探讨了数据增强对其性能的影响,展示了神经 SDE 相对于其确定性版本的优势,但进一步的研究表明,数据增强消除了随机正则化的影响,使得神经ODE和神经SDE的性能差异微不足道。
Abstract
stochastic regularization
of
neural networks
(e.g. dropout) is a wide-spread technique in deep learning that allows for better generalization. Despite its success, continuous-time models, such as
→