基于矢量量化提示学习的释义生成
本篇论文研究了一种使用深度生成模型(VAE)与序列到序列模型(LSTM)相结合的方法来自动生成给定句子的同义句,相对于现有方法具有更好的性能和简洁的模块化结构。
Sep, 2017
本文研究了基于转移学习的无监督方法生成高质量的同义改写,其中采用了任务自适应、自监督学习和名为 Dynamic Blocking 的新型解码算法。该方法在问答数据集和 ParaNMT 数据集上均取得了最新的性能,并且在不同语言改写中具有良好的迁移性能。
Oct, 2020
该研究提出了一种基于改写生成的方法,可以减少创建新对话代理所需要的时间和成本,同时提高其性能,使其能够实际与真实用户进行交互。实验证明该方法提高了意图分类模型的泛化能力,有助于在组织范围内规模化部署这项技术。
Apr, 2022
语言模型提示优化研究表明,通过无明显意义或语法结构的自动生成的令牌序列,包括模型嵌入空间中的向量序列,通常胜过语义和语法良好的手工制作的提示。我们使用机器生成的提示来探究模型对非自然语言表达组成的输入的响应,并在多个语义任务中研究不同尺寸模型的行为,以及它们对连续和离散机器生成的提示和人工生成的自然语言提示的响应行为进行比较。即使产生相似的输出,机器生成的和人工提示通过网络处理途径触发不同的响应模式,包括不同的困惑度、不同的注意力和输出熵分布,以及不同的单元激活特征。我们提供了对不同提示类型激活的单元性质的初步洞察,表明只有自然语言提示才会引起真正的语言电路的激活。
Oct, 2023
利用自动化方法生成的 AutoPrompt,我们展示了预训练语言模型在自然语言推理、情感分析和关系提取方面的潜在能力,以及自动生成的提示方法是现有探究方法的一个可行的无参数替代方法。
Oct, 2020
利用释义学习问题表达的多样性来提高询问回答系统在 Freebase 和句子选择上的准确性。通过训练端到端来直接学习最有可能产生正确答案的语言表达,得到了有竞争力的结果。
Aug, 2017
这项研究通过对一系列不同的语言表达的变化进行系统和实证评估,发现语言模型在适应特定的语义转换类型(如形态、词汇)的提示时具有潜力,这为开发能够处理语言表达的变异性的更强大的语言模型做出了贡献。
Jun, 2024
本文提出一种方法,使用变分自动编码器将问题表示为一个潜在编码空间,从而解决了语义保留和句法创新之间的平衡问题,并使用分类器和 Vector-Quantized 变分自动编码器选择不同的表面形式进行英语问题的改写。
May, 2021
本文探讨了使用渐进式的梯度下降机制为先前的预训练语言模型 Fine-Tuning 提供含监听词库的句子造句模式,以从中提取模型对于文本特征的认知,并使用软词向量进行任务综合,将此方式与传统的任务方法进行对比,显示其在任务中的巨大性能提升,而随机初始化甚至可以代替详细的初始化方式,因此这种知识的提取可以廉价地实现。
Apr, 2021
该研究提出一种名为 QCPG 的控制质量的引号生成模型,该模型能够直接控制生成的引语的质量维度,并且还提供了一种方法来确定预期能够产生最优引语的质量控制空间中的点。实验表明,该模型能够生成保持原始含义的引语并且比未受控的基线具有更高的多样性。
Mar, 2022