DeepTree:利用情境潜变量建模树木
该研究针对最近基于潜在树学习的神经网络模型探索,探索在非解析任务下使用解析值潜变量训练模型,用于发现可解释的树形结构,并成功在语言建模和成分句法分析领域展示了潜在树学习的实用性。
Aug, 2018
本文介绍了潜在树语言模型(LTLM),该模型将给定句子的语法和语义编码为单词角色树。将 LTLM 与 4 元修改 Kneser-Ney 语言模型相结合,通过线性插值,在英语和捷克语语料库中的实验表明,与独立的 4 元修改 Kneser-Ney 语言模型相比,明显降低了困惑度(英语最高降低 46%,捷克语最高降低 49%)
Jul, 2016
通过复制两种无监督学习句子语法结构的神经网络,本研究发现其中只有一种模型在对句子进行分类上表现更出色,但其分析策略随机性大、分析结果相较于常见的 Penn Treebank 结构更为浅显,并且与任何作者所知的语义或句法形式学不上相似。
Sep, 2017
通过 Gumbel 扰动和可微分动态规划,我们实现了概率模型中项目依存树的学习,进而在情感分析和自然语言推理任务中取得了良好的效果,并在一个合成结构归纳任务中研究了其性质。
Jun, 2019
本文讨论简单树模型在人体姿势估计等场景中的局限性,使用混合表示的单个和组合部件来拟合它们的联合分布,对 latent trees 进行学习,通过建立组合部分的视觉类别并在学习的潜在树上执行推理,无需引入潜在变量直接构建模型,可以优于当前状态的艺术在 LSP 上表现。
May, 2013
本文提出了一种名为 Tree Long Short-Term Memory (TreeLSTM) 的神经网络模型,它基于 LSTM 并专门用于预测树结构,同时通过明确表示左右句法相关性,提高了建模能力。在 MSR 句子完成挑战和依存分析重排序方面的应用,都达到了当前最先进技术水平的效果。
Oct, 2015
本文提出了一种适用于动态网络的统计模型 Neural Latent Space Model with Variational Inference,该模型能够表示并预测网络结构的演化,并在同质、双部分和异质网络的真实数据集上表现出优异的性能。
Nov, 2019
本文介绍了一种基于深度生成模型的架构,该架构在训练过程中使用多层的潜在变量,并且在所有潜在变量和输出之间包括确定性路径,以及提供了一组更丰富的连接,这些连接在推理和生成计算之间实现了更有效的信息通信。我们在重构分布中引入了轻量级自回归模型以提高自然图像的性能。实验表明,我们的方法在标准图像建模基准测试中达到了最先进的性能,并且在没有标签信息的情况下可以暴露潜在的类结构,同时可以提供自然图像中被遮挡区域的令人信服的估计。
Dec, 2016
本文提出了两种一致且计算效率高的算法,用于学习最小化的潜在树图模型,并与其他现有方法进行了比较,所提出的算法在隐藏马尔可夫模型和星形图等各种潜在树图模型上进行了详尽的数值实验。
Sep, 2010