关键词syntactic representations
搜索结果 - 5
- 代码表示预训练与程序执行的补充
本论文介绍了一种名为 FuzzPretrain 的方法,利用程序的测试用例中的动态信息,将其嵌入代码的特征表示中,以改善代码搜索的效果,并提供了学习具有区分性的代码表示的实验证据。
- ACL语言模型中如何种植树木:数据和架构对句法归纳偏差发生的影响
本文研究了预训练模型在通用语言中层次化句法功能的作用,通过诊断语法转换任务来诊断预训练参数的归纳偏差,结果表明,模型深度对于层次化泛化具有更大的作用,同时,在训练规模方面,使用适当的语料库预训练可以提高效率。
- ACL神经语言模型中语法表示的过高估计
研究最近聚焦于神经语言模型的成功因素,测试方法学、n-gram 模型以及 LSTM 模型等方式都被用来验证其句法表达的能力,本论文重现了最近论文的实验结果,显示了以字符串为基础的句法诱导训练的基本问题。
- ACL视觉引导的神经语法习得
本研究提出了 Visually Grounded Neural Syntax Learner (VG-NSL),一种无需显式监督即可学习句法表示和结构的方法。VG-NSL 使用自然图像和标注的配对描述学习语法树结构,并在 MSCOCO 数据 - 可视化和测量 BERT 的几何形状
本文描述了一种特别有效的模型 BERT,它能够通过从语义和句法子空间中提取一般有用的语言特征来代表语言信息,同时还探讨了注意力矩阵和单词嵌入中的句法表示,并提出了一种数学证明来解释这些表示的几何形态。