TAPHSIR: 面向需求中照应歧义的检测和解决
该论文提出了一种序列到序列的学习方法,探究了利用先进的自然语言处理(NLP)技术,特别是 Bi-LSTM 和 BERT 预训练语言模型,解决阿拉伯语代词消解问题的有效性。作者建议的方法在 AnATAr 数据集上进行了评估,并与包括传统机器学习模型和手工特征模型在内的数个基准模型进行了比较。实验结果表明,建议的模型在所有指标上都优于比较模型,包括 KNN、逻辑回归和 SVM。此外,作者还探究了多个对模型的修改对性能的影响,结果显示,这些修改显著提高了模型的性能,达到了 81%的 MRR 和 71% 的 F1 得分,同时还表现出更高的精确度,召回率和准确性。该发现表明,作者建议的模型是解决阿拉伯语代词消解问题的有效方法,也展示了利用先进的 NLP 神经模型的潜在优势。
May, 2023
我们引入了一种上下文感知的神经机器翻译模型,该模型可以控制和分析从扩展上下文到翻译模型的信息流,实验证明该模型改进了代词翻译和在指代方面进行了隐含捕获,而且不仅在指代性情况下有所改进,还提高了整体 BLEU 分数。
May, 2018
本文提出了一种混合模型,通过将多个基于规则的筛子与针对代词的机器学习筛子相结合,解决了代词消解的挑战。该方法在 400 个文档的波斯语语言语料库中蕴含着出色的性能,并通过与先前模型的比较证明了其有效性。
Nov, 2022
本研究提出一种通过语义关系自然推导证明来检测词组知识的方法,利用部分变量协同作图重构以及诱导意义呈现的子图对齐算法,可自动检测各种不存在于现有词组数据库的词组,进而提高了文本推理任务的准确率。
Apr, 2018
本文研究了会话人工智能中的歧义检测和指代消解,使用 TOD-BERT 和 LXMERT 模型等对此进行了实现和对比,并得出了语言模型能够检测歧义且单模态指代消解模型可通过智能对象表示避免使用视觉组件等结论。
Feb, 2022
这篇文章介绍了一种新的基于强化学习的弱监督的改述系统 ERAP,通过使用现有的改述和自然语言推理 (NLI) 语料库进行训练,可以生成符合给定蕴涵关系且质量良好的改述,经实验证明,使用 ERAP 来增强下游的文本蕴涵任务训练数据可以提高性能并减少训练异常,表明了在改述过程中显式控制的好处。
Mar, 2022
我们比较了 APT 和 AutoPRF 指标在代词翻译方面的性能,并将其与人工标注的数据集进行了比较。虽然与人工判断存在一定的相关性,但多种问题限制了自动指标的性能。因此,我们建议使用半自动的指标和测试套件代替完全自动的指标。
Aug, 2018
该论文介绍了第一个用于无限制解决 split-antecedent anaphors 的模型,使用 BERT 嵌入及辅助语料库进行了实验,并在金准 ARRAU 语料库上取得了显著的性能提升。
Oct, 2020
本研究旨在探究在无噪音和有噪音环境下,代词消解模型在化学专利的反应文本中的性能差异,以及我们在多大程度上可以提高该模型对噪音的鲁棒性。
Jun, 2023
本文提出了一种判别模型,它将压缩和先行语限制结合起来,选择文本单元以生成单文档摘要,并在大语料库上学习权重。训练后,该系统在 ROUGE 和人类语言质量判断方面均优于其他已有工作。
Mar, 2016