本文提出了基于学习的排序方案来解决自回归模型中的图生成和排序问题,并通过实验证明该方案在各种图生成任务上的有效性,鼓舞未来工作进一步探索和发展学习排序方案。
May, 2023
GraphRNN 是一种基于自回归模型的图生成模型,可以在没有先验结构假设的情况下模拟任何图分布,并且可以比现有的深度模型扩展到 50 倍以上规模的生成,而引入的基准测试集和最大平均差异评估方法可以有效评估模型表现。
Feb, 2018
本文提出了一种名为 GRAN 的新型图形回归注意力网络的有效且表达性强的深度生成模型,能够生成高质量大规模图形,同时与之前的 RNN-based 生成模型相比,GRAN 使用了 GNN 和注意力机制更好地捕捉到已生成和待生成部分的条件之间的自回归关系,并在输出分布上采用伯努利分布的混合来捕捉区块内的生成边之间的相关性,同时在处理节点顺序方面也提出了一些新的解决方法。
Oct, 2019
本研究提出了一种利用生成对抗网络和强化学习相结合的方法,实现对数据生成过程进行度量偏置,提高目标数据质量。通过在分子和音乐生成数据的生成过程中的应用,验证了该方法的有效性。
May, 2017
本文提出一种动态排序正解标签的方法,用于多标签分类任务,以加快更优 LSTM 模型的训练。实验证明,该方法避免了生成重复标签,并超过了其他 CNN-RNN 模型的性能,证明了在挑战性的数据集上使用标准结构的图像编码器和语言解码器采用提出的损失函数可以得到最先进的结果。
Nov, 2019
我们提出了一种基于扩散的图生成模型,通过定义在离散图空间中操作的节点吸收扩散过程,设计了扩散排序网络和去噪网络,从而实现了更好或相当的生成性能,并且具有快速的生成速度。
Jul, 2023
本研究提出了一种基于自回归模型的图生成方法 (BiGG),其利用稀疏性避免生成完整的邻接矩阵,并将图生成时间复杂度降至 O ((n + m) logn)。实验表明,该方法不仅比之前的自回归图生成模型能够处理更大的图像,而且生成质量更高。
Jun, 2020
本文提出了一种图形生成方法,使用自回归神经网络和变分推论技术,通过较紧的对数似然下界来训练模型并生成高质量图形。
Jun, 2021
通过使用一种被称为状态规范化的机制来处理以前递归神经网络(RNNs)的不足,从而提高 RNNs 的状态转移动态分析和解释性,并将其应用于自动机抽取,自然语言处理和计算机视觉中。
Jan, 2019
该研究提出了一种无监督、可并行学习的语言模型生成算法,使用置换矩阵表示自回归顺序,并通过多步生成式注意力将其作为目标顺序进行训练,并在语言建模任务中获得了有竞争力或者优秀的表现。
Oct, 2021