学习低精度图神经网络
本文提出了一种用稀疏编码目标寻找参数的神经架构编码(NAC)方法,用于 NAS-GNNs,无需更新可在线性时间内高效计算,多个基准测试集上实验结果表明相比强基准线方法提高了 18.8% 的性能且速度快了最高 200 倍。
May, 2023
本文探讨神经结构搜索 (NAS) 的计算图模型,提出了一种利用图神经网络的深度生成模型 (GraphPNAS),通过学习表现良好的神经结构的分布来比单纯的搜索最佳结构更高效。作者使用 RandWire,ENAS 和 NAS-Bench-101/201 的三个搜索空间对 GraphPNAS 进行了广泛的实验,并且结合强化学习方法生成高质量的神经结构,结果表明其优于传统的基于 RNN 的神经结构生成器及随机搜索方法,并且取得了与当前最先进的 NAS 方法相当甚至更好的性能表现。
Nov, 2022
本文比较了基于强化学习和进化算法的两种神经架构搜索方法来优化图神经网络,结果在包括 7 个数据集的两个搜索空间内显示出两种方法的准确性与随机搜索相似,引出了有多少搜索空间维度实际上与问题相关的问题。
Jul, 2020
本文介绍了一种名为 SNAG 的框架,通过一种基于强化学习的搜索算法和一个新颖的搜索空间,用于寻找适合于图神经网络的架构,并与其他方法进行了广泛实验。结果表明,SNAG 框架比人工设计的 GNN 和其他 NAS 方法,包括 GraphNAS 和 Auto-GNN 方法更加有效。
Aug, 2020
设计一种通过有价值的图数据识别重要子架构的联合图数据和架构机制,以搜索轻量级图神经网络 (GNNs) 的最佳架构,提出一种带有图稀疏化和网络修剪的轻量级图神经体系结构搜索 (GASSIP) 方法,并通过两个不可分割的模块优化这些模块来高效搜索最佳轻量级架构。
Jun, 2024
提出一种硬件感知量化神经架构搜索 (HQNAS) 框架,将神经结构搜索和量化方法结合,通过权值共享和比特共享以高效优雅的方式完成。在 CIFAR10 中只需要 4 小时 GPU 时间,能发现出卓越的 NN 策略。同时,我们的方法支持在线学习和持续适应环境。
Oct, 2022
本文为了解决图神经网络结构设计中的耗时领域,提出了一种自动化图神经网络(AGNN)框架,使用强化学习的控制器去贪婪地验证架构,可以在预定义的搜索空间内找到最优的 GNN 架构,实现了参数共享的优化,可以大幅提升搜索效率,并在真实世界的基准数据集上进行了实验证明。
Sep, 2019
本文提出的 Graph Neural Architecture Search 可以自动化搜索图神经网络的最佳深度和最佳的消息传递机制,以达到优越的图任务结果。
Mar, 2021
本研究提出一种名为 GraphNAS 的图神经网络结构搜索方法,可用于自动搜索最佳图神经网络架构,通过强化学习训练循环网络,实现生成变长字符串,针对验证数据集的期望准确性最大化,实验结果表明在传导和归纳性学习设置中的节点分类任务中,GraphNAS 具有一致更好的性能,并可设计出一种与最佳人工设计的结构相媲美的新型网络架构。
Apr, 2019
图神经网络(GNN)广泛应用于各个领域的数据科学任务,但为了设计 / 选择最佳的 GNN 结构,研究人员和实践者需要付出大量的努力和计算成本。为了节省人力努力和计算成本,我们提出了一种高效且可解释的图神经架构搜索方法(ExGNAS),它包括适用于各类图的简单搜索空间和能够解释决策过程的搜索算法。通过与现有方法进行综合评估,实验结果表明 ExGNAS 在准确性和运行时间方面超过当前的图神经架构搜索方法,并有效分析同质图和异质图中 GNN 架构的差异。
Aug, 2023