对话建模的语义表示
本研究提出了一种基于语义学的预训练框架,使用抽象含义表示(AMR)来捕捉对话中的核心语义信息,实验证明其在闲聊和任务导向对话的理解上比标准预训练框架更具优势,并且是首次在对话预训练中利用了深层语义表示。
Sep, 2022
通过使用抽象意义表示(AMR)图构建对话中的语言要素和医学实体的图形表示,我们提出了一种模型病人和医疗专业人员之间对话的新框架,其中神经网络结合了文本和图形知识,采用双重注意机制,在医学对话生成方面的实验结果表明,我们的框架优于强基线模型,证明了 AMR 图在增强医学知识和逻辑关系的表示方面的有效性
Sep, 2023
研究表明,通过在神经机器翻译中使用抽象意义表示(AMR)作为额外知识,可以显著改善一种强的基于注意力的序列到序列神经翻译模型在标准英德数据集上的翻译表现。
Feb, 2019
本文提出了使用自然语言处理(NLP)中广泛使用的抽象意义表述(AMR)来建立更具有语言信息的图片抽象表述(称为视觉 AMR 图),并通过重复试验和分析表明,我们可以重用现有的文本到 AMR 分析器来分析图像到 AMRs 的转换。
Oct, 2022
在大语言模型 (LLMs) 时代,本文调查了语义表征在 LLMs 时代中的作用,并探讨了 Abstract Meaning Representation (AMR) 对五个不同自然语言处理任务的影响。通过提出了一种名为 AMRCoT 的 AMR 驱动的思维链提示方法,我们发现它通常会使性能下降。通过一系列分析实验,我们发现很难预测 AMR 在哪些输入示例上能帮助或妨碍,但错误通常出现在多词表达式、命名实体以及 LLM 在最终推理步骤中必须将其基于 AMR 的推理与预测相连接的地方。因此,我们建议将来关注这些领域的语义表征工作。
May, 2024
提出了一种任务导向的对话意义表示 —— 对话意义表示(DMR),它使用一组节点和边来表示复杂的组合语义,并具有继承层次结构机制,提高了域可扩展性;利用 DMR-FastFood 数据集进行实验,提出了两个评估任务来评估差异化对话模型以及基于图形的指代消解任务的 GNNCoref 模型,并显示出 DMR 可以很好地用预训练的 Seq2Seq 模型解析,并且 GNNCoref 可大幅优先于基线模型。
Apr, 2022
使用数百万个未标记的句子和对 AMR 图的精心预处理,我们提出了一种新颖的训练过程,成功地解决了 AMR 中有限的标记数据和非顺序的图表征对序列到序列模型的限制。我们在 AMR 解析和生成任务上取得了竞争性结果,并得到了丰富的分析和证据表明序列基 AMR 模型对图表征的排序变化具有鲁棒性。
Apr, 2017
本研究提出了一种新方法,使用抽象意义表示(AMR)来改善现有的多语言句子嵌入。研究表明,使用 AMR 可以提高多语言句子嵌入在语义相似性和转移任务上的性能。
Oct, 2022
我们提出了一个简单而有效的开放域对话评估框架,通过将领域特定语言模型(SLMs)与 LLMs 结合起来,明确地通过门控机制将对话的抽象意义表示(AMR)图信息融入到 LLM 的提示中,以提高上下文学习性能,并在开放域对话评估任务中的实验结果证明了我们方法在区分对抗性负面回应方面的优越性。
Apr, 2024
介绍了一种基于转移的 AMR 解析器,可以按左到右的线性时间解析 AMR 语义表示的句子。还提出了一个测试套件来评估特定子任务并表明该解析器在处理命名实体和极性方面超过了现有的最佳解析器。
Aug, 2016