CSAGN:面向对话结构的图网络在对话语义角色标注中的应用
本文提出了一种新的对话语境下语义角色标注任务的解决方案,即使用一个基于谓词的高斯机制的潜在图形结构来处理近邻词汇的影响,并结合 CoDiaBERT 模型高效解决了多说话者和跨话语句子等问题,实现了显著的 F1 得分改进。
Oct, 2022
提出一种零 - shot 跨语言 CSRL 方法,利用层次编码和设计的预训练目标隐式地学习语言不可知、会话结构感知和语义丰富的表示,可用于英语问题重述任务和多轮对话响应生成任务,以期促进解决省略和指代问题的非中文对话任务研究。
Apr, 2022
本文采用了图卷积神经网络的方法来处理句子的语法依存树,相比仅使用 LSTM 的方法,该方法表现出显著提升,并在中英文的 CoNLL-2009 标准测试中取得了最佳成绩。
Mar, 2017
通过使用图卷积网络(GCNs)对成分结构进行编码,我们展示了如何使用 GCNs 来编码成分结构并在语义角色标注系统中实现句法信息。我们的 SpanGCN 通过使用 GCN 超过依赖树的模型进行评估,并在标准的 CoNLL-2005,CoNLL-2012 和 FrameNet 基准测试中证明了其有效性。
Sep, 2019
本文提出了一种基于自我注意力机制的新型神经网络架构以实现语义角色标注,能够解决循环神经网络在处理结构信息和长距离依赖时面临的主要挑战,其在 CoNLL 2005 和 CoNLL 2012 语义角色标注竞赛中的 F1 得分分别超过了之前的最佳成绩。此外,我们的模型计算效率高,单个 Titan X GPU 可以处理 50000 个标记每秒。
Dec, 2017
本文介绍了使用 Conversational Semantic Relationship RNN 模型解决多轮对话中相关性和差异性的挑战,模型包含三个层级:言语层面、对话层面和发言层面,能够识别全局背景和主题信息,并提高了响应的连贯性和多样性。
Jun, 2019
本文研究了如何有效地将句法知识融入语义角色标注(SRL)任务中,使用不同质量和表示的依赖树的不同编码方法,提出了一种句法增强的自注意模型,并与其他两种强基准方法进行了比较,并使用新发布的深度上下文化词表示进行了实验。实验结果表明,通过正确地融合高质量的句法信息,我们的模型在 CoNLL-2009 数据集的中文 SRL 任务中取得了新的最佳表现。
Oct, 2019
本文提出了一种基于图形结构神经网络的对话建模方法,其中核心是可以沿着图形结构对话建模信息流的基于图形的编码器,实验结果表明,与现有的基于序列的模型相比,GSN 有显著的优势。
May, 2019
迭代式 LLM 监督 CSL(ILS-CSL)框架通过将基于 LLM 的因果推理与 CSL 相结合,并从 LLM 中获得反馈,从而改进了因果有向无环图(DAG)的学习,提供了更强效的因果发现方法,并在八个真实世界数据集上的综合评估中表现出优越的性能,展示了其推动因果发现领域进步的潜力。
Nov, 2023