跨领域语义解析通过释义
本研究提出了一种无监督方法,学习特定领域的单词表示,以准确捕捉单词语义的领域特定方面,并使用所学习的单词表示进行域适应性处理,以在对多个不同领域对情感分类任务中获得最佳准确性,并显着优于现有基准。
May, 2015
研究使用Paraphrase Database监督学习通用的、同义句的句子嵌入,比较6种组成结构并在相似度数据集和三个NLP任务上进行评估,在领域内复杂的结构(如LSTM)有更好的性能,但在领域外使用简单架构如词平均比LSTM表现更好,同时演示如何将预训练的句子嵌入与监督任务相结合。
Nov, 2015
本文介绍了一种神经语义解析器,将自然语言对话转换成谓语-论元结构的中间表示,并通过标注的逻辑形式或其指示训练端到端的语义解析器。在各种数据集上实验,得到了具有竞争力的结果。作者从诱导的谓词-论元结构中发现,它们可以揭示有关语义解析有用表示形式的类型以及这些表示形式与语言学上动机的表示形式之间的差异。
Apr, 2017
使用神经机器翻译将大型平行语料库的非英语部分翻译为英语,生成超过五千万个英语句子的同义句数据集PARANMT-50M,该数据集可用于同义句生成,提供丰富的语义知识以改善下游自然语言理解任务。我们使用PARANMT-50M训练了同义句嵌入,能在所有SemEval基于语义相似度的比赛中胜过所有监督系统,并展示了它在同义句生成中的应用。
Nov, 2017
通过使用神经网络的词表示方法,在与源领域语法相似的情况下,重新审视了领域适应。并提供了一种简单的方法,通过使用少量的部分注释来适应解析器。文章提供的新算法的结果,使华尔街日报测试集的最新单模型状态达到94.3%,比之前最先进的92.6%有一个绝对提高了1.7%。
May, 2018
从双语语料中直接学习释义句子嵌入的模型和方法,有效消除创建释义文本体的耗时环节。进一步地,该模型可用于跨语言任务,其性能优于且比最先进的复杂基线算法快几个数量级。
Sep, 2019
该研究提出了一种两阶段的语义解析框架,第一阶段利用无监督的语义模型将未标记的自然语言转化为规范化语句,第二阶段使用自然语言解析器解析输出结果得到目标逻辑形式,该训练过程被分成了预训练和循环学习两个阶段,通过三项定制的自监督任务激活无监督的语义模型,实验结果表明该框架是有效的且与监督式训练相兼容。
May, 2020
本研究提出了一种基于深度强化学习的渐进式无监督改写方法,使用变分自动编码器生成种子改写,然后使用一种新的奖励函数来指导渐进调整种子改写,从而实现在不同域中高质量改写。在4个数据集上的结果表明,该方法在自动度量和用户研究方面优于监督学习和无监督学习的当前先进技术。
Jul, 2020
ParaBART 是一个语义句子嵌入模型,使用基于源句子和目标释义之间语义相似性差异的语法指导解开基于预训练语言模型的嵌入中的语法和语义信息的工作。该方法在英语分析上表现出色,能有效的从语义句子嵌入中删除语法信息,提高对下游语义任务的鲁棒性。
Apr, 2021