本文提出了一种使用递归神经网络和无序正则化项进行顺序图生成的方法,以解决顺序生成导致的问题,并证明该方法在数据稀缺的情况下对顺序图生成模型有益处,为合成逼真、多样化图结构的各种应用提供了有价值的工具。
Feb, 2024
该研究提出了一种无监督、可并行学习的语言模型生成算法,使用置换矩阵表示自回归顺序,并通过多步生成式注意力将其作为目标顺序进行训练,并在语言建模任务中获得了有竞争力或者优秀的表现。
Oct, 2021
本文提出了一种图形生成方法,使用自回归神经网络和变分推论技术,通过较紧的对数似然下界来训练模型并生成高质量图形。
Jun, 2021
我们提出了一种基于扩散的图生成模型,通过定义在离散图空间中操作的节点吸收扩散过程,设计了扩散排序网络和去噪网络,从而实现了更好或相当的生成性能,并且具有快速的生成速度。
Jul, 2023
该研究提出了一种基于 Transformer 模型的 Reorder-BART 方法,旨在将文本中的乱序句子整合为有条理的文本,并在 7 个数据集上取得了较优的结果。其在零样本情况下也表现出良好的泛化能力。
Apr, 2021
通过利用部分因果顺序,本文提出了一种通用的估计框架来学习有向无环图的结构,并提供了低维和高维问题的高效估计算法。
Mar, 2024
本文提出了一种基于图神经网络的句子排序模型,通过共享实体来建立更具表达力、噪音更小的图表示,可以更准确地学习语义表示,实验结果表明,我们提出的模型准确性高于现有的最先进系统,并对实体如何帮助性能进行了深入分析。
Dec, 2019
通过重新设定为条件集合生成问题并引入数据增强和集合属性规范化,我们提出了一种针对大型语言模型的集合对齐框架,用于生成更多关系边,以解决传统的文本生成目标与图形线性化序列的不符问题,并在事件时态图生成方面超过现有基线。此框架在零样本条件下通过引入结构知识显著提升模型的泛化能力,尤其是在训练样本有限的情况下。
Apr, 2024
提出了一种新颖的非自回归排序网络,探索了句子之间的双边依赖并并行预测每个位置的句子,实验证明该模型在句子排序任务中优于自回归方法并具有竞争性的性能。
Oct, 2023
基于观察数据的因果推断核心是确定可靠的因果图。本文研究表明,仅凭因果顺序而非完整图信息便足以进行因果效应推断。同时,我们利用大型语言模型(LLMs)作为虚拟领域专家,提出了一种从 LLMs 中获取因果顺序的鲁棒技术。实验证明,与传统的发现算法相比,我们的方法显著提高了因果顺序的准确性,突显了 LLMs 在各个领域增强因果推断的潜力。