Aug, 2023

用尺度不变神经网络逼近正齐次函数

TL;DR通过 ReLu 网络,我们研究解决线性逆问题的可能性。我们证明了使用一个隐藏层的 ReLu 网络无法恢复 1 稀疏向量,但通过两个隐藏层可以以任意精度和任意稀疏度稳定地进行近似恢复,并且我们还将结果推广到包括低秩矩阵恢复和相位恢复在内的更广泛的恢复问题。此外,我们还考虑了使用神经网络来近似一般的正齐次函数,并且我们的结果解释了神经网络在逆问题中通常具有非常大的利普希茨常数,但在对抗性噪声下表现良好的前期矛盾。