BriefGPT.xyz
Ask
alpha
关键词
latent graphs
搜索结果 - 2
EMNLP
将 Transformer 模型作为图到图模型
我们认为 Transformer 模型本质上是图到图的模型,序列只是一种特殊情况。注意力权重在功能上等价于图中的边。我们的图到图 Transformer 架构明确地表达了这个能力,通过将图的边作为输入用于注意力权重计算,并使用类似于注意力的
→
PDF
8 months ago
基于潜在图的生物医学表格数据半监督学习
通过建立潜在图来发现数据之间的内在关系,我们的方法在半监督学习中取得了最先进的结果,并且在三个生物医学数据集上进行了验证。
PDF
9 months ago
Prev
Next