- EMNLP利用情感 - 语义相关性进行共情式回应生成
我们提出了一个动态的情感 - 语义相关模型(ESCM)来帮助生成共情性对话,它通过上下文和情感的交互构建了动态的情感 - 语义向量并引入了依赖树来反映情感和语义之间的相关性,通过动态的相关图卷积网络引导模型学习对话中的上下文含义并生成具有流 - 用非线性力量击打 “探测性” 及更多
通过使用非线性结构探测器来研究编码信息的结构特点,这篇论文提出了一种简化而有效的非线性结构探测器设计,并设计了一个可视化框架来定性地评估句子中两个词之间的连接强度,并用于探索 BERT 在各层中编码的依赖关系树的结构。研究发现,径向基函数( - 句法融合:通过多树图整合提升方面级情感分析
合成融合方法 SynthFusion 可以通过多个解析器的预测来改善图神经网络在情感分类方面的性能,同时减少了过度参数化和过拟合的风险。
- 基于图形神经解码器的音乐层级预测
本文提出了一种数据驱动的框架,以将音乐序列 解析为依赖树,该系统不依赖于任何特定的符号语法,可以同时考虑多种音乐特征,并利用序列上下文信息,可以轻松集成到现代深度学习管道中。在两个音乐数据集上测试表明,该方法优于先前的方法。
- 基于结构化信息的语音中断检测的跨度分类
本文提出了一种新颖的检测漫游症的体系结构,结合了上下文信息和依存树捕获的长距离结构化信息,在英文 Switchboard 上实现了最先进的结果,明显优于现有技术。
- Biaffine 话语依存分析
使用双仿射模型进行神经话语依存分析,与基线分析器相比实现了显著的性能提升。使用 Chu-Liu-Edmonds 算法生成的树更深,性能更好。虽然该语料库允许非项目结构,但分析了非项目性的复杂度并发现其依赖结构不超过一个间隔度和一个边缘度。
- AAAI基于句间依存图的零 - shot 跨语言机器阅读理解
通过引入 Universal Dependencies 中的句法特征,特别是句子内的句法关系和句子间的句法关系,从而建立一个跨语言的 Inter-Sentence 依存图,并提出了一个 ISDG 编码器,能在无需跨语言训练的情况下显著提高零 - ACL汉语词汇内部结构深入研究
提出了一种将中文单词的深度内部结构建模为具有 11 个标签的依赖树的方法,并使用一个竞争性的依存分析器进行基准实验,最后提出了两种编码中文单词深层结构的简单方法,从而在句子级依存结构分析任务上取得了有望的收益。
- ACL更好的命名实体识别特征集成
本文提出了一种简单而强大的方法 —— Synergized-LSTM 来结合 linear sequences 和 dependency trees 两类特征以优化 named entity recognition 的效果;实验结果显示,相 - ICLR在双曲空间中探究 BERT
本研究使用 Poincare 探针将 contextualized word embeddings 映射到具有明确定义层次结构的 Poincare 子空间中,发现在句法子空间中我们的探针比欧几里德探针更好地恢复了树结构,同时在情感子空间中, - EMNLP门控图卷积网络和基于语法规则的调控改进方面情感分析
本文提出了一种基于图的深度学习模型,该模型使用门向量从方面词的表征向量生成来定制基于图的模型的隐藏向量,并在模型中注入从依赖树中获取的每个单词的重要性得分,从而改善方面级情感分析的表征向量,实现了三个基准数据集上的最新成果。
- 请注意根节点:解码依存句法分析的树形结构
该研究分析了依存树和生成树之间的关系,发现依存树的根节点只能有一条边出去,提出了一种有效的算法解决这个约束问题,并且没有影响原来的运行时间。
- ACL语法树能帮助预训练 Transformer 提取信息吗?
本文研究如何将依存树信息合并到预训练的 Transformer 模型中以提高信息提取任务的性能,在语义角色标注和关系抽取任务上,采用两种相似但不同的模型设计策略,通过实证研究发现这些语法增强的 Transformer 模型的性能提高取决于依 - 基于增强语法自注意力的语义角色标注
本文研究了如何有效地将句法知识融入语义角色标注(SRL)任务中,使用不同质量和表示的依赖树的不同编码方法,提出了一种句法增强的自注意模型,并与其他两种强基准方法进行了比较,并使用新发布的深度上下文化词表示进行了实验。实验结果表明,通过正确地 - ACL从英语新闻标题中推断计算
本文提出并实现了一种从英语新闻标题中计算推理的方法,利用标题的句法结构来计算与新闻背景无关的推断。这些推断可以有助于评估新闻标题对读者(包括孩子)的影响,了解社会状况的可理解度取决于标题的消化。
- EMNLP基于依存的 LSTM-CRF 命名实体识别
提出了一种简单而有效的依赖树导向的 LSTM-CRF 模型,以对命名实体识别(NER)任务中的完整依赖树进行编码并捕捉其相关属性,从而显著提高 NER 和实现领先水平,并发现依赖关系和依赖树提供的长距离交互是其主要原因。
- 从 BERT 表示中诱导句法树
本篇研究使用英语 BERT 模型来探究删除句子中一个单词会如何影响其他单词的表征,结果表明删除一个可简化的单词,如形容词,不会像删除主要动词那样对其他单词的表征产生很大影响。同时研究了单词可简化性、句法关系及长句结构对语言模型的影响,借此确 - ACL基于注意力引导的图卷积神经网络用于关系抽取
本研究提出了一种新模型 ——AGGCNs,该模型通过自动学习选择性地关注依存树的相关子结构,有效地利用依存树的结构信息来提取实体之间的关系,从而在交叉句 n 元关系抽取和大规模句子级关系抽取等多项任务中均优于现有方法。
- ACL自动生成高质量 CCGbanks,用于解析领域自适应
本文提出了一种基于依存树的语料库自动生成的领域自适应方法,简单易用且性能显著,适用于最先进的解析器,通过对生物医学文本、问题句子、语音对话和数学问题的实验数据验证,性能提高了 6.3% 到 8.3%。
- EMNLP75 种语言,1 个模型:通用依存关系的全球解析
UDify 是一个多语言多任务模型,可以准确预测 75 种语言中 124 个通用依赖树库的通用词性、形态特征、词形和依赖树,无需任何循环或语言特定组件,并且在跨语言注释方面对低资源语言起到关键作用,并且可以进行零 - shot 学习。