本研究提出了一种基于神经编码器解码器模型的方法,用于生成Morphological inflection generation任务中给定基本形式的词汇对应的特定语言变换的变形形式,并在7个形态丰富语言的数据集上进行评估,获得了与现有的最先进的基于变化生成的模型相比更好或可比的结果。
Dec, 2015
本文提出了一种新的任务:预测给定上下文相关基本形式的派生形式,通过使用基于字符级表示的基本形式和上下文来作为输入,通过encoder—decoder风格的神经网络,生成逐字符产生的派生形式。该模型能够从已知的基本形式中生成有效的上下文敏感衍生词,但在基于词汇表的设置下的准确性则会下降。
Feb, 2017
在小型训练集下,我们针对neural seq2seq models在paradigm completion的应用中性能低下提出了两种新方法:1. Paradigm transduction, 2. Source selection with high precision (SHIP), 在52种语言的基准数据集上,我们相比之前的技术水平在最高达9.71%的绝对准确率上实现了优异表现。
Sep, 2018
本文介绍了一种利用神经混合图模型构建并预测词形变化的方法,并将其与传统的形态学变化或表面实现进行了比较,证明了将语言学驱动的潜在变量纳入NLP模型的实用性。
May, 2019
本文提出了无监督词形范式补全的任务,并介绍了一个通过编辑树检索、范式规模探测和屈折生成等步骤生成词态的系统,该系统在14个语言上得到了很好的性能。
May, 2020
该研究论文研究了使用未标注的句子学习词形变化系统的范例发现问题,并通过使用词嵌入和字符串相似性对单元和范例进行聚类的方法来处理该问题。
该研究探讨了神经序列到序列模型在语言生成任务中的应用,发现在单词级任务中,准确推断这些模型会发现空字符串常常是全局最优解,但在形态学变化的情况下,空字符串几乎不是模型最可能的解,且贪婪搜索通常能找到全局最优解。这表明,许多神经模型的不良校准可能来自于特定任务的特征,而非这些模型在语言生成方面的普遍不适用性。
Feb, 2021
该研究使用少量标记的数据引导标注词形变化,利用不同类型的规律,通过类比词标记和距离对词配对,证明了手工标记许多示例可能是不必要的。
Apr, 2021
本文通过提出一种基于句子层面的形态学,并创建了一个新的、基于句子层面的多语言数据集 MightyMorph,得出基于句子层面的变形、重新变形和分析任务比基于单词水平的任务更具挑战性,同时提供一种方便的界面与语境化语言模型(LMs)相接,评估这些模型中编码的形态学知识和它们用于形态学任务的可用性,为跨语言神经形态的研究打开了新的视野。
Feb, 2022
该研究综述了发展计算形态学相关工具的方法,从传统方法到基于深度神经网络的新方法的历史文献进行了调查,讨论了神经模型与传统模型的有效性,并提出了构建计算形态学工具所面临的独特挑战,最后讨论了该领域中的一些最新研究问题。
Jun, 2024