选择与排序多跳知识路径以更好地预测人类需求
本文提出了一种新方法,通过解决上下文特定词义的挑战来提高情感分析的效果。它结合了双向长短期记忆网络(Bi-LSTM)和知识图谱的同义词数据的优势,利用动态注意力机制开发出一种知识驱动的状态向量。为了对特定方面的情感进行分类,该方法构建了一个集成位置数据的存储库,然后使用多层门控循环单元(GRU)分析此数据以确定与特定方面词相关的情感特征。对三个广泛可用的数据集的测试结果表明,该方法在情感分类方面表现出优秀的性能。
Dec, 2023
通过提出一种选择基于概念网络的常识信息和一种选择性门控的多头注意力机制,本文提出了一种生成式模型,用于解决阅读理解 QA 任务中的多跳关系抽取问题,并在 NarrativeQA 数据集上创造新的最先进结果。
Sep, 2018
本文提出了一种知识增强型 Transformer (KET) 模型,结合分层自注意力机制和上下文感知情感图注意力机制,成功解决了分析对话中情绪所面临的常识和上下文理解问题,实验结果表明 KET 模型在情感检测方面表现良好,F1-score 明显高于当前最先进的模型。
Sep, 2019
本研究提出了一种基于双向长短期记忆的新型两层注意网络,利用 WordNet 生成知识图嵌入来提高情感分析的预测能力,将其与基于支持向量回归和多层感知机网络的监督模型相结合,实验结果表明该模型在 SemEval 2017 上表现优于顶尖系统,分别将 Sub-tracks 1 和 2 的准确率提高了 1.7 和 3.7 个百分点。
May, 2018
本文提出了一种利用常识知识图谱,将结构信息和语义信息结合到推理中,提高语言模型在生成任务中处理常识知识的准确性。通过动态多跳推理模块,本文建立了 Generation with Multi-Hop Reasoning Flow (GRF) 模型,实验表明该模型在三个包含常识知识推理的生成任务中的表现优于现有基线模型。
Sep, 2020
本研究利用大型语言模型(LLMs)的人工神经元研究人类情感推断机制,发现 LLMs 基于情感知识的概念结构与人类行为中的离散情感的结构相似,且它基于 14 个概念属性的情感推断依赖程度与人类依赖程度相近,这为情感知识在大型语言模型中的出现提供了直接证据,并建议其对离散情感推断至关重要。
Feb, 2023