一个用于中文零代词消解的深度神经网络
本研究采用深度强化学习模型,集成局部和全局决策,学习选择先前预测的先行词的策略,以在中文零代词消解中提高准确性。在 OntoNotes 5.0 数据集上的实验结果表明,本技术超过了最先进的模型。
Jun, 2018
本文提出了一种自动生成大规模虚拟训练数据的方法,以解决零代词指代问题中标注数据不足的问题,并成功将阅读理解神经网络模型用于零代词指代问题,通过提出的两步训练机制在 OntoNotes 5.0 数据集上取得了显著的 3.1% F-score 改进。
Jun, 2016
本文提出了一种分析日本指代语的方法,使用零代词(省略的必须格)来指代前一个实体(先行词),并整合两个概率参数,以在单一框架内执行零代词检测和消解。
Jun, 2002
该研究提出了一种用于波斯语代词消解的端到端神经网络系统,利用预训练的 Transformer 模型如 ParsBERT。我们的系统同时优化了提及检测和先行链路,相比前期依赖基于规则和统计方法的最新系统,在 Mehr 语料库上实现了 3.37 F1 分数的提高。这一显著改进展示了将神经网络与语言模型结合的有效性,可能标志着波斯语代词消解领域的显著进展,并为进一步的研究铺平了道路。
May, 2024
本文提出了一种统一且考虑话语的零代词(Zero pronouns, ZPs)翻译方法,利用神经网络实现对 ZP 的预测和翻译,并采用分层神经网络来利用话语上下文,实验结果表明该方法在中英和日英语料数据上显著提高了机器翻译和 ZP 预测的准确性,尤其是缓解了主观 ZPs 带来的误差。
Sep, 2019
本研究提出两个新的建议,分别是在 MLMs 上使用含有显式监督的方法进行项链关系的预训练任务以及新的微调方法,实验证明这两个建议可以提升零指称解析的性能,同时揭示了其余挑战的新见解。
Apr, 2021
这篇研究综述了神经革命之后对于零代词翻译的研究进展,提供了基于演化、数据集、方法和评估的文献组织。另外,该文比较并分析了不同基准测试上的竞争模型和评估指标,找到了一些有见地的发现,例如大语言模型的发展趋势与零代词翻译相一致,而数据限制会造成学习的偏差,而先进的方法离实际应用仍有很大差距等。
May, 2023
本文提出了两种用于联合解析阿拉伯语中无指代的零代词和非零代词的架构,并在此基础上进行评估,同时创建了一个新版本的阿拉伯语子集的共指解析数据集。
Oct, 2022