本文描述了隐喻释义生成的任务,并提出了两种不同的模型:词汇替换基线和一种新的序列 - 序列模型 “隐喻屏蔽”,它可以生成自由的隐喻释义。我们使用众包来评估我们的结果,并开发了自动度量衡来评估隐喻释义。我们发现,虽然词汇替换基线能够产生准确的释义,但它们往往缺乏隐喻,而我们的隐喻屏蔽模型在生成隐喻句子方面表现出色,同时在流利度和释义质量方面表现也很好。
Feb, 2020
通过使用并行语料库以及基于序列到序列模型和隐马尔可夫模型的方法,本文构建了一个自动跨领域语义映射的框架,通过生成一些具有语义相似性的例子,实现了提取图形用户界面元素的语义。
Mar, 2021
本研究旨在基于概念隐喻理论通过控制生成过程并使用两种方法 (词汇级和序列生成模型) 生成有意义的隐喻表达。经过自动化和人工评估,实验结果表明,无监督的 CM-Lex 模型与最新的深度学习隐喻生成系统具有竞争力;而 CM-BART 优于其他所有模型。
Jun, 2021
本研究探讨了语言模型在理解比喻和比喻性语言方面的能力,并提出了新的语言理解任务,发现现有语言模型在理解非字面短语方面的表现还有待于进一步提升。
Apr, 2022
本文介绍了一种使用大型语言模型来进行各种文本主题的改写以及延申到段落级别的重述的技术。该方法表现出了良好的效果,不仅能够对句子进行改写,还能对整段文本进行处理,无需将文本划分为较小的块。
Nov, 2019
本文介绍了一个多任务隐喻生成框架,包括自我训练和隐喻鉴别机制,用于解决中文命名隐喻生成的数据稀缺性问题。实验结果表明,与基准模型相比,我们的模型可以生成具有更好可读性和创造性的隐喻,即使训练数据不充足。
Jun, 2022
基于预训练语言模型的词汇简化方法取得了显著进展,通过分析词语在其上下文环境中的替代词生成复杂词的潜在替代词。然而,这些方法需要针对不同语言进行单独的预训练模型,并且忽略了对句子意义的保留。本文提出了一种新颖的多语言词汇简化方法,通过生成释义来提供词语选择的多样性,同时保持句子的意义。我们将释义任务视为支持数百种语言的多语言神经机器翻译中的零 - shot 翻译任务。在释义建模的编码器中输入句子后,我们基于一种集中于复杂词的词汇变体的新颖解码策略生成替代词。实验结果表明,我们的方法在英语、西班牙语和葡萄牙语上明显优于基于 BERT 的方法和零 - shot GPT3 方法。
Jul, 2023
通过引入简单的改进算法,不鼓励生成输入中已有的 N-grams,利用多语言神经机器翻译模型生成同义句,控制输入和输出之间的词汇多样性,人工评估表明,该方法比基于 ParaBank 2 的同义句生成器更好地维护意义和语法正确性,并且在两种非英语语言上也同样有效。
Aug, 2020
本文研究采用人工生成的同义词组进行翻译评估,结果表明使用同义词组可以更好地反映人类判断,同时使用同义词组进行系统开发可以产生显著的提高。
Oct, 2020
本文介绍如何使用包含一致结构的训练数据作为语料库级别的释义,并将释义视为外语词汇进行 Neural Machine Translation 的训练。本方法表现出比过去的单词或短语级别的方法更好的效果,并且在使用多种语言的平行释义进行训练时表现最佳。该方法提高了翻译的 BLEU 分数,增加了词汇选择的熵和多样性。
Aug, 2018