COGS 中的结构性泛化:超标记化几乎是你所需的全部
通过引入 SLOG 数据集,我们展示了模型在构造化泛化任务中对词汇和结构的泛化能力存在巨大差异。相比 COGS 数据集,在 SLOG 数据集上,Transformer 模型(包括预训练模型)的泛化准确率仅达到 40.6%,而结构感知解析器仅达到 70.8%。
Oct, 2023
评估语言处理架构的组成能力的语义解析数据集 COGS 表明现代标准 NLP 模型在其组成泛化能力上存在局限性,而将 COGS 定位为衡量进展的好方法。
Oct, 2020
该研究系统比较了序列到序列模型和基于组合原则的模型在 COGS 语料库上处理组合泛化能力的能力,在结构泛化任务中,基于序列的模型表现接近零,而组成模型在结构泛化任务中表现接近完美,这表明结构泛化是组成泛化的关键度量,需要能够处理复杂结构的模型。
Feb, 2022
我们利用新的参数化和置换预测方法,提出了一种将语义解析理解为两步处理,并通过规则化线性规划求解器来预测排列,进而取得了比预训练 seq2seq 模型和之前的工作更好的性能,实现了在深度递归上的高准确度的泛化。
May, 2023
通过注意力图卷积网络以图形式建模词库中的信息,加强神经组合范畴语法(CCG)超标记,进而提高语法分析的准确性。实验结果表明,该方法在超标记和语法分析方面优于先前所有研究。
Oct, 2020
本文提出了一种新的基于图的方法来进行语义解析,解决了文献中观察到的两个问题:(1) seq2seq 模型无法完成组合泛化任务;(2) 使用短语结构解析器的先前工作无法涵盖树库中观察到的所有语义解析。我们证明了两个优化算法的正确性,用基于约束平滑和条件渐变的方法近似解决这些推断问题。实验证明,我们的方法在 Geoquery、Scan 和 Clevr 上都具有最先进的效果,包括在测试组合泛化的过程中。
Feb, 2023
通过实验证明,Seq2Seq 模型在英语句法分析、语义分析和文本之间的转换任务中,普遍存在推广的普适性较低的问题,但是在建立了语言知识的神经符号模型中,这些限制往往可以克服。
Oct, 2022