无监督图神经架构搜索与解耦的自我监督
本研究提出了一种自监督神经架构搜索 (SSNAS) 方法,使用未标记的数据进行训练,无需使用标签数据即可发现新的网络模型,并在搜索标签数量相对较少时展示了该方法的优势。
Jul, 2020
通过发现和利用图与体系结构之间的因果关系来搜索能够在分布转移下具有泛化能力的最佳体系结构,以解决现有方法在现实图场景中广泛分布转移下无法泛化的问题。
May, 2024
设计一种通过有价值的图数据识别重要子架构的联合图数据和架构机制,以搜索轻量级图神经网络 (GNNs) 的最佳架构,提出一种带有图稀疏化和网络修剪的轻量级图神经体系结构搜索 (GASSIP) 方法,并通过两个不可分割的模块优化这些模块来高效搜索最佳轻量级架构。
Jun, 2024
图神经网络(GNN)广泛应用于各个领域的数据科学任务,但为了设计 / 选择最佳的 GNN 结构,研究人员和实践者需要付出大量的努力和计算成本。为了节省人力努力和计算成本,我们提出了一种高效且可解释的图神经架构搜索方法(ExGNAS),它包括适用于各类图的简单搜索空间和能够解释决策过程的搜索算法。通过与现有方法进行综合评估,实验结果表明 ExGNAS 在准确性和运行时间方面超过当前的图神经架构搜索方法,并有效分析同质图和异质图中 GNN 架构的差异。
Aug, 2023
本文介绍了一种名为 SNAG 的框架,通过一种基于强化学习的搜索算法和一个新颖的搜索空间,用于寻找适合于图神经网络的架构,并与其他方法进行了广泛实验。结果表明,SNAG 框架比人工设计的 GNN 和其他 NAS 方法,包括 GraphNAS 和 Auto-GNN 方法更加有效。
Aug, 2020
本文提出的 Graph Neural Architecture Search 可以自动化搜索图神经网络的最佳深度和最佳的消息传递机制,以达到优越的图任务结果。
Mar, 2021
本文为了解决图神经网络结构设计中的耗时领域,提出了一种自动化图神经网络(AGNN)框架,使用强化学习的控制器去贪婪地验证架构,可以在预定义的搜索空间内找到最优的 GNN 架构,实现了参数共享的优化,可以大幅提升搜索效率,并在真实世界的基准数据集上进行了实验证明。
Sep, 2019
本文比较了基于强化学习和进化算法的两种神经架构搜索方法来优化图神经网络,结果在包括 7 个数据集的两个搜索空间内显示出两种方法的准确性与随机搜索相似,引出了有多少搜索空间维度实际上与问题相关的问题。
Jul, 2020
我们介绍了一个无监督的分离表示学习框架 (SE-VGAE),旨在生成以属性连接的多图形式的建筑布局,同时强调表示的分离性,通过优化数据集和实验,对探索基于图形数据的建筑设计表示空间进行了深入研究,该研究将无监督的分离表示学习应用于建筑布局图生成任务中。
Jun, 2024
本文探讨神经结构搜索 (NAS) 的计算图模型,提出了一种利用图神经网络的深度生成模型 (GraphPNAS),通过学习表现良好的神经结构的分布来比单纯的搜索最佳结构更高效。作者使用 RandWire,ENAS 和 NAS-Bench-101/201 的三个搜索空间对 GraphPNAS 进行了广泛的实验,并且结合强化学习方法生成高质量的神经结构,结果表明其优于传统的基于 RNN 的神经结构生成器及随机搜索方法,并且取得了与当前最先进的 NAS 方法相当甚至更好的性能表现。
Nov, 2022