本文提出了一种基于深度强化学习的新型 “生成器” 和 “评估器” 框架来生成给定句子的释义,实验证明此方法在自动评估和人类评估上都优于现有技术。
Nov, 2017
本文介绍了一种基于语言约束的相似性搜索方法,用于自动产生大规模对齐语料库,以解决基于神经网络的释义生成面临的数据缺乏问题。该方法在意大利语的情况下进行评估,并使用基于指针的深度神经网络架构实验。
Feb, 2024
利用释义学习问题表达的多样性来提高询问回答系统在 Freebase 和句子选择上的准确性。通过训练端到端来直接学习最有可能产生正确答案的语言表达,得到了有竞争力的结果。
Aug, 2017
通过利用预训练模型和实例相关提示,本文提出生成多样且高质量的复述词句的方法,使用向量量化的提示来控制预训练模型的生成。实验表明此方法在三个基准数据集上取得了最新的最佳结果,包括 Quora、Wikianswers 和 MSCOCO。一旦被接受,我们将公开所有代码。
Nov, 2023
该研究提出了一种基于改写生成的方法,可以减少创建新对话代理所需要的时间和成本,同时提高其性能,使其能够实际与真实用户进行交互。实验证明该方法提高了意图分类模型的泛化能力,有助于在组织范围内规模化部署这项技术。
Apr, 2022
本文提出了利用元学习框架解决弱监督下的释义生成任务,并通过检索式的伪释义扩展获取大量弱标注平行句子,进而选择有价值的样本对预训练语言模型 BART 进行微调,从而生成高质量释义的方法,与目前的无监督学习方法相比具有显著的改进。
Sep, 2021
本文提出了一种生成抄袭的生成模型,它通过条件语法草图鼓励语法多样性。在 HRQ-VAE 的基础上,我们提出了一种学习散列编码分解的方法,表示输入的精细到粗糙的信息。通过 HRQ-VAE,我们可以将输入句子的句法形式编码为通过层次结构的路径,以便更容易地在测试时预测语法素描。实验结果证明了 HRQ-VAE 可以学习输入空间的层次表征,并生成比以前系统更高质量的抄袭。
Mar, 2022
本文介绍了一种使用大型语言模型来进行各种文本主题的改写以及延申到段落级别的重述的技术。该方法表现出了良好的效果,不仅能够对句子进行改写,还能对整段文本进行处理,无需将文本划分为较小的块。
Nov, 2019
本文提出了一种无需人工标注的数据集构建方法,使用双语文本语料来 fine-tune Transformer 语言模型,并加入一个循环池层构建出有效的特定语种句子编码器,该方法在单张图形卡上使用不到一天时间训练,在波兰语的八个语言任务上实现了高性能,超越了最好的多语言句子编码器。
Jul, 2022
为了弥合自然语言问题和知识库之间的词汇句法差距,本文提出了一种基于概率上下文无关语法抽样生成语义解析问题的语法模型,实现了自然语言问题向知识库查询的转换,提高了语义解析性能。
Jan, 2016