ÚFAL 在 MRP 2020 中的 PERIN 中置换不变语义解析
该研究提出了一个基于神经编码器 - 解码器的转移句法分析器,可以作为关于最小递归语义的完全覆盖的语义图分析器,预测图与非词汇化谓词及其标记对齐共同。该分析器比注意力模型基准更准确,并且在 GPU 批处理方面比高精度基于语法的分析器快一个数量级。此外,我们的最小递归语义分析器的 86.69% Smatch 得分高于 AMR 分析的上限,这使得 MRS 成为有吸引力的语义表示选择。
Apr, 2017
本文介绍了一种基于深度学习的语义依存图形式分析系统,该系统采用效率高且几乎拓扑结构简单的推理方法,通过组合双向 - LSTM 和多层感知机,能够在不使用手工特征或语法的情况下显著提高语义依存分析的技术水平。作者还对多任务学习策略进行了研究,并获得了新的技术成果。
Apr, 2017
本文针对语义解析的性能进行改进,使用多任务学习方法,将 UCCA 解析作为测试案例,辅助任务包括 AMR 解析、SDP 解析和 Universal Dependencies 解析。实验表明,多任务学习显著提高了 UCCA 解析的性能。
May, 2018
本文提出了一种新的基于图的方法来进行语义解析,解决了文献中观察到的两个问题:(1) seq2seq 模型无法完成组合泛化任务;(2) 使用短语结构解析器的先前工作无法涵盖树库中观察到的所有语义解析。我们证明了两个优化算法的正确性,用基于约束平滑和条件渐变的方法近似解决这些推断问题。实验证明,我们的方法在 Geoquery、Scan 和 Clevr 上都具有最先进的效果,包括在测试组合泛化的过程中。
Feb, 2023
本研究开发了一种基于图表的方法和有效的 top-K 集成技术,通过应用这种方法到多语言的预训练语言模型中,可以在集成和语言无关的方式下诱导出九种语言的句子的非平凡解析,同时发现了普遍的注意力头,这些头与句法信息的感知是一致的,验证了该方法的鲁棒性。
Apr, 2020
通过提供一种基于格点的表示,能够同时解决词法分割和句法分析任务的联合神经体系结构,在希伯来语等具有高度复杂性和模棱两可性的多词类语言上取得了最先进的性能。
Feb, 2024
本文介绍了我们在 MRL 2022 胜出的系统,主要探索了基于 transformers 的两种方法:从头训练模型结合数据增强以及在多语言词形态任务中进行前缀调校的迁移学习,其中数据增强显著提高了大多数语言的词形和重构任务的性能,而前缀调校在预先训练的 mGPT 模型上对低数据量和多语言环境中的分析任务进行了适应,结果显示 transformers 与数据增强在词形和重构任务方面取得了最佳结果,而在分析任务方面,基于 mGPT 的前缀调校取得了最高结果。
Nov, 2022
本文介绍了基于话语表示结构的多语言预训练语言含义模型,在预训练阶段包括语义表示,并采用交叉语言迁移学习,以进一步提高非英语任务的性能。实验结果显示,该方法在多语言 DRS 解析和 DRS 到文本生成任务上实现了最佳性能。
May, 2023
本文综合探讨了通用分解语义(UDS)解析,并引入了级联模型,将复杂的解析任务分解为语义上适当的子任务。我们的方法在优化了架构的同时,超越了先前的模型,并显著减少了推理时间。我们还结合了句法信息,进一步优化了架构。此外,我们还探索了不同的数据增强方法,进一步改进了 UDS 解析。最后,我们进行实验来研究 ChatGPT 在处理 UDS 任务方面的效果,发现它在属性解析方面表现出色,但在关系解析方面存在困难,而使用 ChatGPT 进行数据增强效果不佳。我们的代码可在此链接找到。
Jul, 2023