Jul, 2024

学习可解释的可微逻辑网络

TL;DR我们提出了一种学习可解释的可微分逻辑网络(DLNs)的新方法,这些网络使用多层二进制逻辑运算符构建,通过对输入进行二值化、二进制逻辑操作和神经元之间的连接来训练这些网络。实验结果表明,可微分逻辑网络在二十个分类任务上可以达到与传统神经网络相当甚至超过的准确率,并且具有解释性。此外,它们的相对简单结构使得推断过程中的逻辑门操作数量比神经网络少上千倍,适用于边缘设备部署。