May, 2024

训练灰盒深层光子神经网络的非对称估计器

TL;DR物理神经网络(PNN)作为神经网络加速的新范式,由于其高带宽、传播中的模拟处理等特点而备受关注。然而,尽管 PNN 在推理方面具有优势,但训练仍然面临挑战。为了克服这个问题,我们提出了一种称为 “不对称训练(AT)” 的方法,该方法将 PNN 结构作为一个灰盒子进行处理。通过实验证明,在未校准的光子集成电路(PIC)实现的深度灰盒 PNN 上使用 AT 方法能够将 Iris 花和修改后的 MNIST 手写数字的分类准确性从随机猜测提高到接近理论最大值,并在 MNIST、fashion-MNIST 和 Kuzushiji-MNIST 等不同数据集上展示了 AT 相对于 BP 的持续提升性能。AT 方法成功进行训练的同时,硬件开销较小,计算开销降低,是一种强大的轻量级训练替代方法,能够充分发挥物理计算的优势。