通过构建反事实和多语言混合进行缩写歧义消除(ADBCMM)
本研究提出了 AM2iCo 用于多语言和跨语言的词汇语义评估,旨在研究最先进的预训练文本表示模型在理解跨语言环境下的词意识别方面的能力,结果显示当前预训练编码器表现与人类性能存在明显差距,尤其体现在低资源语言和与英语不同的语言上。
Apr, 2021
提出了一个名为 Bi-ACL 的框架,旨在解决多语言神经机器翻译中的数据不平衡和表示退化问题。该框架使用仅目标侧单语数据和双语词典,结合双向自编码器和双向对比学习模块,并使用在线约束波束搜索和课程学习采样策略。实验表明,该方法对长尾语言和高资源语言都更有效,并且可以在零 - shot 场景中在不同领域和语言之间转移知识。
May, 2023
通过利用大型语言模型,我们研究了在机器翻译中解决语义歧义的能力,并提出了两种改进方法,通过上下文学习和在精心策划的歧义数据集上的微调,我们的方法在五种语言方向中有四种能够匹敌或胜过 DeepL 和 NLLB 等最先进的系统,为将大型语言模型有效地用于歧义消解的机器翻译提供了有价值的见解。
Sep, 2023
通过引入 CLAMBER,本研究构建了一个评估大型语言模型(LLMs)的基准,发现当前 LLMs 在识别和澄清用户不确定查询方面的实用性有限,同时提出进一步研究如何提高 LLMs 的质量,解决冲突并增加可信度的指导。
May, 2024
LLMs have limitations in generating text in a user's desired language, and the Language Confusion Benchmark evaluates these failures, finding that Llama Instruct and Mistral models exhibit high degrees of language confusion, even the strongest models fail to consistently respond in the correct language.
Jun, 2024
这项研究发现大型语言模型在文本分类中受到选择数量和排列的变化的影响,为解决这个问题,提出了一种基于两阶段分类框架的方法,该方法通过减少决策空间和进行逐对比较来减轻边界的模糊性和内在偏差。通过对四个数据集的广泛实验证实了该框架的有效性,并使不同的大型语言模型取得了一致的改进。
Jun, 2024
通过引入 3AM 数据集,本文提出了一种新的解决方案来改善多模态机器翻译中存在的视觉信息不足的问题,并通过提供更具含糊性和更多种类的数据集,实现了对现有多模态机器翻译数据集更好的训练效果,进一步促进了多模态学习领域的研究和探索。
Apr, 2024
本文提出了一种名为 MTrans 的新框架,其使用 TPD 方法进行训练以实现源 - 辅助 - 目标的最优路径,并使用 Bi-MAgree 框架和 MKL 方法来鼓励跨语言一致性。实验表明,这种方法在多个任务上都表现出了显著的改善。
Sep, 2022
该论文提出了一种基于机器翻译、多模态、神经适配器和引导自注意机制的新型多模态机器翻译方法,同时还发布了 CoMMuTE 数据集,并在该数据集上取得了显著的性能提升。
Dec, 2022