意图保持改写的意义和形式分解
利用释义学习问题表达的多样性来提高询问回答系统在 Freebase 和句子选择上的准确性。通过训练端到端来直接学习最有可能产生正确答案的语言表达,得到了有竞争力的结果。
Aug, 2017
通过利用预训练模型和实例相关提示,本文提出生成多样且高质量的复述词句的方法,使用向量量化的提示来控制预训练模型的生成。实验表明此方法在三个基准数据集上取得了最新的最佳结果,包括 Quora、Wikianswers 和 MSCOCO。一旦被接受,我们将公开所有代码。
Nov, 2023
本篇论文研究了一种使用深度生成模型(VAE)与序列到序列模型(LSTM)相结合的方法来自动生成给定句子的同义句,相对于现有方法具有更好的性能和简洁的模块化结构。
Sep, 2017
本文研究了基于转移学习的无监督方法生成高质量的同义改写,其中采用了任务自适应、自监督学习和名为 Dynamic Blocking 的新型解码算法。该方法在问答数据集和 ParaNMT 数据集上均取得了最新的性能,并且在不同语言改写中具有良好的迁移性能。
Oct, 2020
该研究探讨了数学问题的表面形式与其是否能被大型语言模型解决之间的关系,并发现表面形式的微小改变可以显著影响答案分布和解决率,揭示了语言模型在推理复杂问题时缺乏鲁棒性和对表面形式的敏感性。为了提高数学推理性能,研究提出了自洽性超重述(SCoP)方法,该方法通过多样化问题的特定表面形式来多样化推理路径。通过对三个大型语言模型上的四个数学推理基准进行评估,研究表明 SCoP 相对于普通的自洽性方法可以提高数学推理性能,特别是对于最初被认为无法解决的问题。最后,研究提供了关于问题难度和表面形式的额外实验和讨论,包括模型间的难度一致性和重述的可迁移性,以及用于语言模型评估的变异性。
Apr, 2024
为了弥合自然语言问题和知识库之间的词汇句法差距,本文提出了一种基于概率上下文无关语法抽样生成语义解析问题的语法模型,实现了自然语言问题向知识库查询的转换,提高了语义解析性能。
Jan, 2016
本文提出了一种生成抄袭的生成模型,它通过条件语法草图鼓励语法多样性。在 HRQ-VAE 的基础上,我们提出了一种学习散列编码分解的方法,表示输入的精细到粗糙的信息。通过 HRQ-VAE,我们可以将输入句子的句法形式编码为通过层次结构的路径,以便更容易地在测试时预测语法素描。实验结果证明了 HRQ-VAE 可以学习输入空间的层次表征,并生成比以前系统更高质量的抄袭。
Mar, 2022
基于预训练语言模型的词汇简化方法取得了显著进展,通过分析词语在其上下文环境中的替代词生成复杂词的潜在替代词。然而,这些方法需要针对不同语言进行单独的预训练模型,并且忽略了对句子意义的保留。本文提出了一种新颖的多语言词汇简化方法,通过生成释义来提供词语选择的多样性,同时保持句子的意义。我们将释义任务视为支持数百种语言的多语言神经机器翻译中的零 - shot 翻译任务。在释义建模的编码器中输入句子后,我们基于一种集中于复杂词的词汇变体的新颖解码策略生成替代词。实验结果表明,我们的方法在英语、西班牙语和葡萄牙语上明显优于基于 BERT 的方法和零 - shot GPT3 方法。
Jul, 2023
通过评估释义生成方法实现提高 FRANK 问答系统可回答的自然语言问题的多样性,该研究分析了 LC-QuAD 2.0 数据集上的自动度量和人工判断,并讨论了它们之间的相关性,同时对包含错误的数据点进行了错误分析。通过将最佳执行的释义生成方法(一种英 - 法反向翻译)模拟到 FRANK 中进行测试,作者得出两个主要结论:需要清理 LC-QuAD 2.0 数据以消除评估中的错误,而且由于 FRANK 的解析器存在限制,释义生成不是我们可以依赖的一种提高 FRANK 回答自然语言问题多样性的方法。
Jun, 2022