Jun, 2023

任何深度的 ReLU 网络都是浅层的

TL;DR本文证明了每个深度 ReLU 网络可以被重写为具有扩展实值权重的功能相同的三层网络,并提供了一个算法,可以在给定深度 ReLU 网络的情况下找到相应浅层网络的显式权重,以透明地生成模型行为的解释。