神经机器翻译的释义生成
该研究提出了一种基于改写生成的方法,可以减少创建新对话代理所需要的时间和成本,同时提高其性能,使其能够实际与真实用户进行交互。实验证明该方法提高了意图分类模型的泛化能力,有助于在组织范围内规模化部署这项技术。
Apr, 2022
该研究探讨了四种生成马拉雅拉姆语释义的方法,利用了英语释义和预训练的神经机器翻译模型的资源。我们使用自动化评估指标(如 BLEU、METEOR 和余弦相似度)和人工标注来评估生成的释义。我们的发现表明,自动化评估指标可能不完全适用于马拉雅拉姆语,因为它们与人的判断不一致。这种差异凸显了对高度聚集语言特别是马拉雅拉姆语更细致的释义评估方法的需求。
Jan, 2024
利用释义学习问题表达的多样性来提高询问回答系统在 Freebase 和句子选择上的准确性。通过训练端到端来直接学习最有可能产生正确答案的语言表达,得到了有竞争力的结果。
Aug, 2017
本文研究通过开发将人类自然语言自动翻译为机器可理解语言的能力,从而增强人机交流效率,重点是如何利用传统方法训练有限的数据集训练语义解析器,在海事领域的实验结果表明被翻译成 SQL 格式的语句和逻辑方面的形式是一种有用的训练数据集。
Mar, 2022
本文介绍了一种基于语言约束的相似性搜索方法,用于自动产生大规模对齐语料库,以解决基于神经网络的释义生成面临的数据缺乏问题。该方法在意大利语的情况下进行评估,并使用基于指针的深度神经网络架构实验。
Feb, 2024
本文提出了一种无需人工标注的数据集构建方法,使用双语文本语料来 fine-tune Transformer 语言模型,并加入一个循环池层构建出有效的特定语种句子编码器,该方法在单张图形卡上使用不到一天时间训练,在波兰语的八个语言任务上实现了高性能,超越了最好的多语言句子编码器。
Jul, 2022
研究了应用数据增强和改进 NLU 模型对于在基于游戏学习场景中帮助儿童学习数学基本概念的多模式对话系统的有效性,得到了使用小型数据集进行 MITL 策略下的改写的良好表现。
May, 2022
本篇论文研究了一种使用深度生成模型(VAE)与序列到序列模型(LSTM)相结合的方法来自动生成给定句子的同义句,相对于现有方法具有更好的性能和简洁的模块化结构。
Sep, 2017