本文探讨了神经机器翻译在自然语言处理中的组合性能力测试及其对真实数据的影响,结果显示需要重新思考神经网络的组合性评估及开发相应基准测试。
Aug, 2021
本文提出用双向循环神经网络替代 NMT 源语言嵌入层,在任何所需的粒度水平上生成组合表示,从而解决基于统计的分词方法中可能导致的形态错误,实现了从字符 N-gram 组成词表示的 NMT 训练方法的一致逆袭。
May, 2018
本论文研究了现代神经机器翻译模型的组成泛化问题,构建了包含 216k 个干净和一致的语句对的基准数据集 CoGnition,并通过复合翻译误差率定量分析了各种因素的影响,然后展示了神经机器翻译模型在组成泛化方面的表现欠佳,尽管在传统指标下表现出色。
May, 2021
本研究基于多种语言和哲学理论对构成性的不同解释,提出了五个理论有据的测试方法,用于评估神经语言模型的构成性能力,结果分析了三种常见神经网络结构在高度构成性数据集上的表现和潜在改进方向。
Aug, 2019
加入原型引导的源端表示式,减少稀疏性和过拟合,以提高神经机器翻译的组成泛化性能。实验结果表明,该方法在多个机器翻译数据集上比 Transformer 基线方法表现更优。
Oct, 2022
本文提出一个过程,用于研究神经机器翻译 (NMT) 系统生成的句子表示如何编码不同的语义现象,最终发现编码器最适合在语法 - 语义界面上支持推理,而不是需要世界知识的指代消解。
Apr, 2018
本研究使用递归神经网络模型和限制信息传递的瓶颈机制,通过比较有无瓶颈情况下模型对数据的表示,提出了一种衡量复合性的度量标准,并基于此标准实现了一个数据集的复合性排序,应用于算术表达式合成数据和情感分类自然语言数据。
Jan, 2023
通过研究 NMT 模型训练过程中的能力表现,发现其在学习目标语言模型、逐词翻译和复杂重排序模式方面的能力表现与传统的 SMT 模型有明显差异,并探讨了这种理解对于优化 NMT 模型的实际应用。
Sep, 2021
本研究测试了在专业翻译中使用神经机器翻译(NMT)是否能够节省人工处理时间,并发现更好的 MT 系统确实能够减少英文到捷克文翻译过程中的修改次数,但是质量和编辑时间之间的关系并不是直接的关系,并且与短语词汇表机器翻译不同的是,BLEU 不能稳定预测时间或最终输出质量。
本研究探讨了机器翻译和语义解析中的复合通用性问题,并发现神经机器翻译模型在句法结构的通用性上存在困难,而语义解析和机器翻译具有不同的性能趋势。
Jun, 2024