本文使用五种数据增强方法自动生成和检测指代零代词,提高了两个针对阿拉伯语的零代词系统的性能,表现超越了现有的最先进技术,为自然语言处理研究提供了新的资源。
Sep, 2021
本文提出了一种自动生成大规模虚拟训练数据的方法,以解决零代词指代问题中标注数据不足的问题,并成功将阅读理解神经网络模型用于零代词指代问题,通过提出的两步训练机制在 OntoNotes 5.0 数据集上取得了显著的 3.1% F-score 改进。
Jun, 2016
本文提出了一种分析日本指代语的方法,使用零代词(省略的必须格)来指代前一个实体(先行词),并整合两个概率参数,以在单一框架内执行零代词检测和消解。
Jun, 2002
本文提出了一种统一且考虑话语的零代词(Zero pronouns, ZPs)翻译方法,利用神经网络实现对 ZP 的预测和翻译,并采用分层神经网络来利用话语上下文,实验结果表明该方法在中英和日英语料数据上显著提高了机器翻译和 ZP 预测的准确性,尤其是缓解了主观 ZPs 带来的误差。
Sep, 2019
这篇研究综述了神经革命之后对于零代词翻译的研究进展,提供了基于演化、数据集、方法和评估的文献组织。另外,该文比较并分析了不同基准测试上的竞争模型和评估指标,找到了一些有见地的发现,例如大语言模型的发展趋势与零代词翻译相一致,而数据限制会造成学习的偏差,而先进的方法离实际应用仍有很大差距等。
May, 2023
该研究提出了一种新的零代词特定神经网络,通过利用语义层面上的上下文信息来表示零代词,并使用两级候选人编码器来明确捕获候选人的本地和全局信息,实验结果表明,在各种实验设置中,我们的方法明显优于现有技术。
Apr, 2016
本研究采用语境数据增强的方式解决了零代词消解技术中标注数据不足的问题,并提出了两种适用于零代词消解任务的数据增强方法。实验证明这些方法有助于提高准确性和降低计算成本。
Nov, 2020
本研究采用深度强化学习模型,集成局部和全局决策,学习选择先前预测的先行词的策略,以在中文零代词消解中提高准确性。在 OntoNotes 5.0 数据集上的实验结果表明,本技术超过了最先进的模型。
Jun, 2018
本研究提出两个新的建议,分别是在 MLMs 上使用含有显式监督的方法进行项链关系的预训练任务以及新的微调方法,实验证明这两个建议可以提升零指称解析的性能,同时揭示了其余挑战的新见解。
Apr, 2021
本研究表明,在零样本机器翻译中,基于输入提示的大型模型不会出现离题语言错误,实验证明自监督预训练和数据增强对于零样本多语言机器翻译的效果显著。
Oct, 2022