本文研究了机器翻译系统在口语和手语之间的应用,使用手语书写系统 SignWriting 作为手语的表示方式。利用神经因子化机器翻译的方法,该方法能够在手语到英语的双语转换中达到 30 BLEU 的翻译效果,在口语和手语之间的双向翻译中达到 20 BLEU 的翻译效果。这些研究结果证实了中间文本表示法对手语的自然语言处理具有重要意义。
Oct, 2022
使用大型语言模型训练手语翻译任务,提出了 SignLLM 框架,将手语视频转换为类似语言的表示,通过两个关键模块进行转换,同时采用标记对齐损失来增强语义兼容性,在两个广泛使用的手语翻译基准测试中取得了最先进的无注释结果。
Apr, 2024
该研究使用 Transformer 和 I3D 视频特征对 How2Sign 数据集进行训练,并以降低的 BLEU 作为参考指标,获得了 8.03 的 BLEU 得分,提供了第一个开源实现,推进了自动手语翻译技术的发展。
Apr, 2023
利用大规模预训练视觉和语言模型通过轻量级适配器实现无语言标注的手语翻译的新型框架 Sign2GPT,在两个公共基准手语翻译数据集上评估并取得明显优于现有技术的无语言标注翻译性能提升。
May, 2024
本研究提出了一种标志性的回译(SignBT)方法,利用大规模口语文本来协助手语翻译(SLT)的训练。此外,我们还发布了一个大规模的连续 SLT 数据集 CSL-Daily,提供口语翻译和注释。通过提出的回译方法,我们实现了对先前 SLT 方法的显着改善。
May, 2021
手语转文字是一项关键技术,可以消除听障者之间的交流障碍。我们在最近发表的研究上进行复制并进行改进,通过使用 BLEU 和 rBLEU 度量来评估模型的翻译质量。在我们的消融研究中,我们发现模型的性能受到优化器、激活函数和标签平滑的显著影响。进一步的研究旨在改进视觉特征捕捉、增强解码器的利用以及整合预训练解码器以获得更好的翻译结果。我们的源代码可供查看以便复制我们的结果并鼓励未来研究。
Feb, 2024
本研究提出了 STMC-Transformer 翻译系统,相对当前最先进技术,在 PHOENIX-Weather 2014T 数据集的亮度 - 文本翻译和视频 - 文本翻译方面提高了 5 和 7 BLEU。在 ASLG-PC12 数据集上,也有超过 16 BLEU 的提高。同时,我们证明了当前方法中的问题,即依赖于 gloss 监督会导致 SLT 表现不佳,并揭示了 gloss 是手语的低效表示方法,因此建议未来的 SLT 研究采用端到端的训练方法或使用不同的手语注释方式。
Apr, 2020
该研究通过改进数据集质量和翻译系统的简化,推动了手语机器翻译领域的发展。我们介绍了 SignBank+,这是 SignBank 数据集的精简版本,为机器翻译进行了优化。与以往利用复杂分解技术进行翻译的方法不同,我们提倡一种简化的文本对文本翻译方法。我们的评估表明,基于 SignBank + 训练的模型超过了原始数据集上的模型,建立了一个新的基准,并为未来的研究提供了一个开放的资源。
Sep, 2023
该研究使用轻量级神经网络模型和 Bert-Base-Chinese 模型开发了一种适用于中文手语的实时翻译系统,经过性能测试表明其识别准确率达到了 99.3%,翻译生成的时间大约为 1.3 秒。
Jun, 2023
从人类翻译的角度出发,我们提出了一种基于多模态变压器架构的上下文感知翻译方法,通过利用上下文信息和自信预测来消除较弱的视觉线索,在最终的变压器解码器中组合来自视频、识别出的手语词汇和前面手语序列的上下文信息,显著提高了本文提出方法在较大规模数据集和公开数据集上的机器翻译性能,近乎翻倍地提高了基线方法的 BLEU-4 分数。
Aug, 2023