神经对抗训练用于半监督日本语谓论结构分析
本研究提出了新的日语 PAS 分析模型,通过扩展标准的双向循环神经网络模型的输入和最后一层,结合多个 PAS 中的论元标签预测信息,使用池化和注意机制直接捕捉多个 PAS 之间的潜在相互作用,并成功地改善了间接依赖关系的情况下的预测准确性,并在标准的基准语料库上取得了新的最佳效果。
Jun, 2018
本研究证明,采用最新的特征嵌入方法和基于神经网络的特征组合学习,可以显著提高复杂本地模型的性能,超越现有领先的全局模型在普遍标准数据集上的 $F_1$ 性能表现。
Oct, 2017
本文描述了一种基于多任务学习的方法,用于解决日语谓词论元结构分析(PASA)和事件名论元结构分析(ENASA)任务中的交互问题,并采用神经网络的方法在 ENASA 中取得了优越的性能表现。
Apr, 2019
本文介绍了 ICS PAS 系统及其在 CoNLL 2018 共享任务中的性能表现,系统包括基于 biLSTM 网络的联合训练标签、词形还原器和依存解析器,采用全连接和扩张卷积神经结构,并使用附加损失函数和自训练等方法提升系统性能。
Apr, 2020
提出了一种从自然语言文本中提取论点结构的新方法,其包括评分分配和结构预测两个阶段,评分分配阶段使用不同的训练策略和词嵌入特征对各种关系进行分类,最终预测出最佳结构,实验表明该方法表现优于基线系统。
Dec, 2016
本文介绍一种半监督的方法来解决低资源语言机器翻译的问题,通过增强高质量的句子对和使用基于 SentenceBERT 的过滤器来提高数据质量,将交叉熵损失和 KL 散度相结合,特别是通过伪目标句子实现无监督训练,实验证明该方法可以显著提高 NMT 基线性能
Apr, 2023
介绍了一种新的方法通过序列标记识别论证结构,并使用整数线性规划来优化引用组件类型和论证关系,提高了基础分类器的性能,同时还引入了一个包含论证结构注释的新语料库,以促进将来对计算论证的研究。
Apr, 2016
本文介绍了在半监督下对自然语言句子进行解析的工作,重点是去除词汇的依赖关系解析器的多源跨语言转移。首先,评估了树库注释风格对解析性能的影响,重点是介词附着风格。然后,我们提出了 KLcpos3,一种经验性的语言相似度测量方法,专门用于多源去词汇解析器转移中源解析器加权。最后,基于训练解析器模型的插值,引入了一种新的资源组合方法。
Jun, 2015
本文介绍了一种神经语义解析器,将自然语言对话转换成谓语 - 论元结构的中间表示,并通过标注的逻辑形式或其指示训练端到端的语义解析器。在各种数据集上实验,得到了具有竞争力的结果。作者从诱导的谓词 - 论元结构中发现,它们可以揭示有关语义解析有用表示形式的类型以及这些表示形式与语言学上动机的表示形式之间的差异。
Apr, 2017
该论文研究了跨越瓜拉尼语和西班牙语的 Jopara 语言的情感分析问题,并训练了一组神经模型,探讨了它们在低资源环境下的表现。Transformer 神经网络模型表现最佳,但传统机器学习模型在这个问题的低资源情况下也表现接近最佳水平。
May, 2021