优化图表示以用于基于事件视觉的图卷积网络的硬件实现
本研究提出了一种新型的神经视觉感测器设备,可以实现更高效的事件采样率,更高的能量效率,更强的抗干扰性,同时提出了一种用于神经视觉感测器设备的紧凑图表征方法和残差图卷积神经网络架构,同时提出了一个大型的美国手语字母NVS数据集,用于复杂手语字母的识别任务。
Aug, 2019
通过 CPU-FPGA 异构系统,我们设计了一种新型加速器,通过算法-架构协同优化,提升 Graph Convolutional Networks 训练的速度。我们采用子图算法,优化特征传播,并提出基于 systolic array 的设计,实现了如此高效的加速。在 Xilinx Alveo U200 及 40 核 Xeon 服务器上,我们的设计比现有多核平台的最新实现快一个数量级,且几乎没有精度损失。
Dec, 2019
本文提出了一种新的硬件加速器 I-GCN,采用在线图重构算法 Islandization,通过处理岛屿而不是单个节点,从而显著提高了数据局部性和减少了不必要的计算。I-GCN 可以减少38%的聚合操作,性能速度普遍快于 CPU、GPU 和先前的GCN加速器。
Mar, 2022
本文提出采用异步事件驱动图神经网络(AEGNN),将事件处理范式从已知稀疏的静态图扩展到事件数据域中的一个演化的稀疏图,在物体分类和检测任务上,实现了计算复杂度提高11倍的同时,保持了最新的异步方法相同甚至更好的性能表现,将计算的降低转化为计算延迟降低了8倍,为低延时事件处理打开了新的机遇。
Mar, 2022
该研究整理并总结了关于应用于计算机视觉的基于图神经网络(GNNs)及其派生物(如GAT、GCN和GRN)的方法的论文,从网络结构、数据集、以及与其他领域的关联等三个方面进行了详细阐述。
Dec, 2022
最近在事件相机研究中,通过使用原始稀疏形式的数据进行处理,凭借其独特的特点(如高时间分辨率、高动态范围、低延迟和抗图像模糊性),取得了一些进展。其中,基于图卷积网络(GCNs)的事件数据分析方法令人期待。然而,在该领域的当前研究主要集中在优化计算成本上,却忽视了相应的内存成本。本文综合考虑了执行时间、可训练模型参数数量、数据格式要求和训练结果等因素,进行了不同图卷积操作的比较分析,结果显示,相较于最先进方法使用的操作,特征提取模块的参数数量减少了450倍,数据表示的大小减少了4.5倍,同时保持了52.3%的分类准确率,比最先进方法提高了6.3%。为了进一步评估性能,我们实现了目标检测体系结构,并在N-Caltech101数据集上评估了其性能,结果显示其在0.5的mAP下达到了53.7%的准确率,并达到了每秒82个图的执行速度。
Jul, 2023
本研究介绍了一种基于图的事件相机新框架SlideGCN,通过事件逐个处理并保持图的内部结构,从而高效处理事件数据并保持低延迟特性。在图构建方面,采用半径搜索算法来更好地利用事件云的部分规则结构。实验结果表明,相较于当前基于图的方法,我们的方法在保持最先进的目标识别性能的同时,将计算复杂度降低了100倍。此外,通过事件级处理,我们验证了该方法的优越性,当状态稳定时,能够以高置信度进行早期识别。
Aug, 2023
该研究论文提出了EvGNN,这是第一个用于边缘视觉的事件驱动GNN加速器,通过利用定向动态图、事件队列和新颖的层并行处理方案,实现了边缘视觉的低内存占用、超低延迟和高准确性,从而实现了实时的微秒级分辨率事件驱动视觉。
Apr, 2024
本研究旨在利用事件相机解决传统视频系统的限制,在汽车领域中针对嵌入式实时系统进行集成,通过图卷积网络 (GCN) 的运用保证处理事件系统所需的吞吐量和延迟性。通过针对点云处理的 GCN 架构 PointNet++ 进行硬件优化,实现了模型尺寸的超过 100 倍压缩,并在精度方面仅有较小的减少 (N-Caltech101 分类为 2.3%,N-Cars 分类为 1.7%),从而紧跟 TinyML 的趋势。本文还介绍了一种自定义的基于 FPGA 加速的事件驱动图卷积网络 (EFGCN),并在 ZCU104 SoC FPGA 平台上实现,实现了每秒 13.3 百万事件 (MEPS) 的吞吐量和 4.47 毫秒的实时部分异步处理延迟。此外,本研究还解决了所提出硬件模型的可扩展性,以提高所得到的准确性分数。据我们所知,这是首次在 SoC FPGA 上加速 PointNet++ 网络,也是首次针对实时连续事件数据处理进行图卷积网络实现的硬件架构研究。我们在一个开放的代码库中发布了软件和硬件源代码:this https URL*** (将在被接受后发布)。
Jun, 2024
本研究解决了现有图卷积神经网络在FPGA实现中的可扩展性问题,通过优化硬件模块和提出双步卷积方法,显著降低了LUT的使用量。该方法提高了GCNN的可扩展性,使得可以应用于更多层次、更大规模的图和更动态的场景。
Nov, 2024