学习基于图像的加权模型
本研究旨在研究如何使用基于 Transformer 的模型来提高序列决策智能体的性能,并提出了 Working Memory Graph(WMG)代理程序,评估其在三种环境中的作用,并发现基于观测空间的因数组合 WMG 的 Transformer-based 架构可以显著提高其在 RL 环境中的样本使用效率。
Nov, 2019
本文提出一种新的 GNN 设计策略,利用无上下文语法生成矩阵语言 MATLANG,从而确保 WL 表达能力,子结构计数能力和谱属性。根据该策略,设计了语法图神经网络 G$^2$N$^2$,证明了其在边级上计算长度为 6 的环并能够达到带通滤波器,实验结果证实了理论结果。
Mar, 2023
本文从图形模型的角度综述了多学科的经验性统计学习,包括图形模型的常见例子,如贝叶斯网络、表示马尔科夫链的有向图和表示马尔科夫场的无向网络,并使用试板符号扩展来对数据分析和实证学习进行建模,提供了简化和操作问题的图形操作,包括分解、演变和来自指数族的概率模型的操作。文中还综述了两种标准的算法模式:Gibbs 采样和期望最大化算法,并使用这些操作和模式综述了一些流行的算法,包括线性回归、前馈网络的技术以及从数据学习高斯和离散贝叶斯网络。最后,本文概述了图形模型提供的框架来理解和开发复杂学习算法的一些含义。
Dec, 1994
本文提出了一种基于 Fused Gromov-Wasserstein 度量空间的 FGWMixup,旨在通过匹配图之间的节点来找到一种匹配策略,以提高图神经网络的泛化性和鲁棒性。
Jun, 2023
本文介绍了一种新型 GGMs 变体,其通过在 GGM 上施加二分结构,并使用截断正态分布来管理隐藏变量以放宽高斯限制,实现了非常有效的推断,进而建立了与修正线性单元(ReLU)神经网络的连接,用于真实值,二进制和计数数据的输出构建,还将该模型扩展到深层结构,并展示了深层模型可以用于修正单元神经网络的无监督预训练。大量实验证据证明了提出的模型相对于竞争模型的优越性。
Nov, 2016
我们提出了一种新颖的端到端深度学习方法,用于监督图预测。我们引入了一种原始的基于最优传输的损失函数,即部分遮蔽融合 Gromov-Wasserstein 损失函数(PM-FGW),可以直接利用图形表示(如邻接和特征矩阵)。PM-FGW 具有 SGP 所需的所有理想属性:节点排列不变性,次可微性,并通过比较它们的填充表示和遮罩向量来处理不同大小的图形。此外,我们还提出了一种灵活的基于 Transformer 的架构,可以轻松适应不同类型的输入数据。在实验部分,我们展示了该方法相对竞争对手在一个新颖而具有挑战性的合成数据集(image2graph)和两个真实世界任务(image2map 和 fingerprint2molecule)上的效率和多功能性。
Feb, 2024
给出一种用于学习 Markov 随机场(MRF)或无向图模型的简单的、乘性权重更新算法 ——Sparsitron 算法,特别适用于学习 t 阶 MRFs 结构,并具有近乎最优的样本复杂度和多项式的运行时间。同时,该算法还可以学习 Ising 模型上的参数,生成接近真实 MRF 的统计距离假设,并给出了学习稀疏广义线性模型(GLMs)的解决方案。
Jun, 2017
提出了一种新的神经网络模型结合 Gated Graph Neural Networks 和输入转换解决了线性化启发式和参数爆炸问题,可以对 AMR 图和基于语法的神经机器翻译进行生成,实验结果表明该模型优于强基线模型。
Jun, 2018
本文提出了一种新的方法来学习基于视觉的单词含义表示,即在底层模态特定的词语表示上建立相互通信的图形,通过模拟人类相似性判断和概念分类来验证其能力,名为分层多模态相似性图嵌入(HM-SGE)。
Sep, 2021