百万级跨语言条款级联结构转换器
本研究提出了 Morph Call,它是针对四种不同形态的印欧语言(英语,法语,德语和俄语)的 46 个探测任务套件,使用诱导句子扰动的检测方法,在神经元,层和表示水平上分析了四个多语言 transformers 的形态句法内容,其中包括其不太被探究的蒸馏版本,并研究了精调 POS 标记对模型知识的影响。研究结果表明,精调可以改善和降低探测性能,并改变形态句法知识在模型中的分布。代码和数据公开,希望填补 transformers 的研究空白。
Apr, 2021
在低资源环境中,提出了一种用于模拟复杂形态的框架解决方案,该方案采用了双层 Transformer 架构来编码输入端的形态学信息。同时通过多标签多任务训练和基于 beam search 的解码器,提高了机器翻译性能,并使用通用形式的注意力增强方案来整合预训练语言模型和源语言和目标语言之间的词序关系建模。通过评估多种数据增强技术,提高了在低资源环境中的翻译性能,最终在基纳卢旺达语 - 英语翻译任务中取得了有竞争力的性能,希望我们的结果能够鼓励更多在低资源的神经机器翻译中使用明确的形态学信息以及所提出的模型和数据增强方法。
Apr, 2024
该研究以 CoNLL-SIGMORPHON 2017 共享任务为基础,使用监督型形态生成技术在 52 种语言上进行训练和测试,结果表明神经序列到序列模型能够在小训练数据集上取得高性能,但由于不同偏置和数据增强策略导致预测的屈折形式集合不一,因此仍需要进一步的改进措施。
Jun, 2017
CoNLL-SIGMORPHON 2018 shared task focused on supervised learning and morphological generation for over 100 languages, with task 1, inflection task, receiving 27 submissions and task 2, the cloze task, receiving 6 submissions where most systems utilized neural components and improvements were seen from last year's inflection task.
Oct, 2018
本研究介绍了一个广泛的多语言探测词形信息数据集,利用预训练变形金刚模型(mBERT 和 XLM-RoBERTa),并应用两种方法确定输入中区别信息的位置以实现强大的性能。其中最显著的发现是前缀上下文持有比后缀上下文更多相关预测信息。
Jun, 2023
本文研究机器翻译中针对形态丰富的目标语言面临的挑战以及采用词元标记策略和语言学知识进行目标语言语言建模的实验,结果表明词汇量限制、语法一致性和语言关联性问题仍然是机器翻译需要解决的重要问题。
Mar, 2022
SIGMORPHON 2019 共享任务关注跨语言转移和上下文形态学分析,研究传递学习和上下文词形还原在 66 种语言中的应用,同时在 100 种语言对中考察了词缀的转移,所有的提交中都具备了神经元件。
Oct, 2019
研究探讨了 NLP 工具在不同语言的应用情况以及针对语言结构差异进行的分析,指出哪些变量最影响语言建模的效果,通过计算词序和形态相似性指数等方法进行实证研究,最后通过多分类文本分类实验验证了研究结论。
Apr, 2020
研究表明,将深度学习序列模型用于形态学变化的任务可以取得良好的结果。然而标准模型,如 Transformer,在推广变形模式方面表现很差。为了解决这个问题,我们提出了一种基于子串的生成模型,能够更好地处理之前没有训练过的词形,并在实验中获得了显著的性能提升。
Apr, 2021
论文提出了一种模块化框架,可以用来在神经机器翻译中灵活地应用语言学知识和不同类型的神经机器翻译模型,特别是设计了用于领域适应和低资源机器翻译设置的英德医疗和英立新闻测试套件,结果表明,我们的基于规则的屈折模块比神经模块更准确地引入了引文限制,并且在低成本的训练下优于现有的端到端方法。
Sep, 2021