通过注意力图卷积网络以图形式建模词库中的信息,加强神经组合范畴语法(CCG)超标记,进而提高语法分析的准确性。实验结果表明,该方法在超标记和语法分析方面优于先前所有研究。
Oct, 2020
本文从图论的角度重新审视结构调整式句法分析,并提出了一个基于异构动态图卷积的框架,以利用补丁标记器输出空间的独特结构。我们在涵盖不同语言和语法形式的分类语法数据集上测试了我们的方法,并获得了显著的改进。
Mar, 2022
通过生成类别而不是分类类别,我们提出了一种新的 CCG supertagger 方法,将每个类别分解为一系列更小的标记,以此更好地处理类别间的关系并增强与句子上下文的交互。该方法能够在标准 CCGBank 上实现最先进的标识 (95.5% 精确度) 和分析 (89.8% 标记 F1),并在罕见类别、领域外文本和资源匮乏语言方面取得了有希望的结果。
Mar, 2021
该研究提出了一个新的神经模块 Differentiable Window,它可以用于动态窗口选择,通过不同的方式与 Transformer 架构相集成,可以有效地提高 NLP 任务的效果。
Jun, 2020
本文提出了一种新颖的神经网络框架,利用门控组合神经网络和 LSTM 语言评分模型,消除上下文窗口,可以利用完整的分词历史,产生分布式表示,从而实现中文分词,并在基准数据集上进行实验,结果不需要使用现有方法的特征工程,获得了与现有最先进方法相当甚至更好的性能。
Jun, 2016
在许多自然语言处理应用中,神经网络在处理超出分布范围的示例时被发现无法进行泛化。本文通过多种方法对神经图形语义解析框架进行扩展以缓解这个问题,实验结果表明结构性约束对语义解析中的泛化是重要的。
Oct, 2023
本研究探讨了基于深度学习的远程语音识别中,非对称上下文窗口的机制,并提出了一种新的基于梯度分析的自动上下文窗口组合方法,结果表明此方法能够减少冗余帧配置,在混响环境下提供有效的语音识别性能。
May, 2018
本文研究如何改进神经机器翻译,通过在 decoder 中插入 CCG supertags 的形式的目标语句法信息,进一步模拟复杂的句法现象,经过实验比较,发现这样的改进可以提高翻译质量,尤其是对于一些句法结构复杂的语言对。
Feb, 2017
通过将 N-Gram 上下文引入到图像超分辨率中,提出了 NGswin 和 SwimIR-NG,并通过实验证明了其比之前的方法更加高效且性能更好。
Nov, 2022
使用卷积神经网络的通用标记器(CNN)在不同的标记任务中表现强壮,它能够生成词向量和编码上下文信息,并且没有任务特定的调整能够在词性标注、形态标注和超级标注等任务上达到最优结果,同时它还能很好地解决未登录词问题。
Jun, 2017