生成拓扑网络
本论文通过介绍生成性教学网络 (Generative Teaching Networks, GTNs) 和对其在监督学习和神经架构搜索领域的应用实例说明了利用算法自动生成训练数据和学习环境帮助 AI 代理快速学习的可能性以及潜在影响,并提出了一些有趣的研究方向。
Dec, 2019
本论文提出了一种名为 GTNs 的图转换器网络,能够在图上进行节点表示的学习,同时生成新的图结构以及识别原始图上未连接点之间有用的连接。实验表明,GTNs 有效地生成新的图结构,通过卷积在新图上产生具有强大表现力的节点表示,并在三个基准节点分类任务中取得了最佳表现。
Nov, 2019
我们提出了一种名为 ' 时间图生成对抗网络 ' 的新模型,它能够连续地生成时间图,并针对回归神经网络设计了一些新的激活函数,以强制实施时间合法性约束,以及一种新的时间图鉴别器,以提高效率和准确性。
May, 2020
图分类是一项重要的图结构数据学习任务,我们提出了一种新颖的 Tensor-view 拓扑图神经网络 (TTG-NN),利用持久同调、图卷积和张量运算构建了一种简单而有效的拓扑深度学习方法,能够同时捕捉局部和全局层面上的张量表示和图结构信息。在实际数据实验中,TTG-NN 在各种图基准数据上表现优于其他 20 种最先进的方法。
Jan, 2024
提出了一种名为 Computation Graph Transformer(CGT)的图形生成模型,它可以在保证隐私的前提下,生成大规模真实世界图的有效基准图,用于作为 Graph Neural Networks 模型的基准测试。
Jul, 2022
提出了一个图树网络(GTNets)的深度图学习架构,并提出了两个图学习模型(GTAN 和 GTCN),在几个流行的基准数据集上实验证明了其良好的性能。
Apr, 2022
本研究探索了带门控的 Transformer Networks 的时间序列分类问题,我们展示了 GTN 在多元时间序列分类任务上的自然有效性,并且在 13 个数据集上进行了实验证明 GTN 可以达到具有竞争力的结果。我们还探究了 GTN 的注意力图以提高时间序列建模的自然解释性。
Mar, 2021