Jun, 2024

利普希茨算子的运算学习:信息论视角

TL;DR基于神经算子的算子学习已成为一种有前景的通过数据驱动的方法,在无限维巴拿赫空间中进行算子近似。本研究针对利普希茨连续算子的神经算子近似的参数复杂性进行了探索,从信息论的角度建立了利普希茨算子的度量熵的下界,并指出神经算子架构的大小在达到近似精度 ε 时必须是指数级的。这项研究的结果阐明了基本的权衡和限制。