- ACL跨语言迁移的软提示调整:少即是多
通过插入可学习的嵌入或软提示到预训练语言模型 (PLM) 的输入层,Soft Prompt Tuning (SPT) 是一种将 PLM 调适到特定任务的参数高效方法,无需修改其参数。本文研究了 SPT 在跨语言传递中的潜力,并通过冻结模型参 - ACL相关语言间的跨语言转移:将低资源马耳他语视为多语言代码交换
使用词源学的条件转译对马耳他语进行预处理可以提高多语言语言模型的跨语言迁移能力,在四个下游任务中表现最佳。
- MEDs for PETs: 多语言委婉词消歧示(对有可能含委婉意味的词语)
本文研究了多种语言中委婉语的计算处理。我们训练了一个多语言变换器模型(XLM-RoBERTa)来消除多语言和跨语言环境下的可能的委婉语词汇。与当前趋势一致,我们展示了跨语言的零射击学习的现象。我们还展示了多语言模型在这一任务上相对于单语言模 - 仅需一点多语言知识的多语言教学优化
通过研究多语言指令调整多语言大型语言模型的效果,我们发现跨语言转移以及将多语言示例用于指令调整对多语言指令跟随具有显著的改进作用。
- 将以英语为中心的 LLMs 转变为多语种模型:需要多少语言能力?
通过与只使用英文进行微调的模型相比较,研究发现只使用三种语言进行多语种微调可以显著提高模型在生成式任务上的跨语言转移能力,而在高度结构化的任务上影响较小。
- 零样本摘要中具有参数高效层的语言和任务算术
通过元素级算术操作组合语言和任务的参数,我们提出了一种改进的零样本跨语言迁移方法,能在使用最少 PEFT 模块训练的情况下实现一致的收益,对摘要生成任务表现出良好的效果。
- 是否翻译:对基于翻译的跨语言转移到低资源语言的系统调查
用机器翻译和多语言模型来进行跨语言转移,尤其是对低资源语言进行翻译的方法比零样本跨语言转移方法要有效。通过在源语言训练数据上进行往返翻译并在目标语言测试实例上进行翻译的方法最有效。同时,通过将其他高资源语言的可靠翻译添加到训练数据中,还可以 - MELA:多语言语言可接受性评估
我们介绍了首个多语言语言可接受性基准 MELA,并在 48K 个样本中涵盖了 10 种语言,从不同的语言家族中选择。我们分析了经过精调的 XLM-R 的权重,探索了语言之间的转移困难,结果显示 ChatGPT 得益于上下文实例,但仍落后于精 - 参数高效的多语言摘要:实证研究
本研究通过使用 Parameter-Efficient Fine-Tuning 中的 Low-Rank Adaptation (LoRA) 探索了复杂且未被充分研究的多语言摘要任务的潜力,研究发现 LoRA 在低数据情况和跨语言转移中表现出 - EMNLP零样本跨语言情感分类在分布偏移下的探索性研究
通过实验发现多语言模型存在在未知领域的过度拟合问题,在跨语言迁移的设置下,语言和领域的差异对测试结果产生了影响;进一步提出两种新的方法来解决这个问题,通过利用最新大型语言模型避免昂贵的标注过程,通过对 13 种语言的测试集进行评估,结果表明 - EMNLPX-SNS:通过子网络相似性进行跨语言转移预测
通过使用两种语言之间的子网络相似性作为预测跨语言转移 (XLT) 的语言兼容性的代理方法,本研究提出了一种以模型为导向,仅需要适量原始文本的方法,进一步提高了 XLT 的效能。实验证明我们的方法在多样性任务上优于其他基准模型,并能有效对零样 - EMNLP多语言模型中偏见的研究:解偏技术的跨语言转移
本文研究了多语言模型中去偏技术的可转移性。我们在英语、法语、德语和荷兰语中检验了这些技术的适用性。利用多语种 BERT(mBERT),我们证明了跨语言的去偏技术不仅可行,而且效果显著。令人惊讶的是,我们的发现表明,在应用这些技术于非英语语言 - 是否对文本进行标记化:跨语言转移的文本表示的比较研究
选择一个合适的分词方案通常是低资源跨语言转移的瓶颈。为了理解文本表示选择的后续影响,我们对具有不同文本表示模式的语言模型进行了比较分析,包括 2 个基于分词的模型(BERT,mBERT)、一个基于图像的模型(PIXEL)和一个基于字符级别的 - 无平行语料的零样本跨语言迁移
通过使用预训练模型,我们提出了一种零样本跨语言转移的新方法,它能够在低资源语言上实现任务感知的双语信息对齐,并利用未标记数据进行自我训练,从而实现多种任务上的最新技术提升,无需并行语料库或翻译模型。
- 通过自我知识蒸馏促进少资源场景下的通用跨语言问答
我们提出了一种实用的解决方案,通过高效利用有限的数据资源,改善跨语言问答的转移能力。
- 跨语言结构提取的上下文标签投影
通过使用 CLAP 方法,首先将文本翻译成目标语言,并使用翻译后的文本作为上下文对标签进行语境翻译,从而提高了翻译标签的准确性。在事件论证提取等结构提取任务上,CLAP 相较于其他方法在中文和阿拉伯语 ACE05 数据集上提高了 2-2.5 - 在跨语言迁移范式中衡量灾难性遗忘:探索调整策略
比较两种基于适配器方法和参数微调的跨语言迁移策略,评估其在少资源语言中的性能和跨语言知识遗忘情况,并发现中间训练策略在目标语言上表现优于跨语言验证策略。
- 双视图课程优化输运用于跨语言跨模态检索
通过 Dual-view Curricular Optimal Transport(DCOT)在跨语言跨模态检索中学习带有噪声的对应关系,从而解决机器翻译产生的不完美翻译问题,实验证明了该方法的有效性和鲁棒性。
- 跨语言中高古德语语法句法分析:基于非词汇化方法
本研究旨在通过使用去词法化方法,利用现代德语 (MG) 的语法分析数据,进行从现代德语到中古高地德语 (MHG) 的跨语言转移,训练了一个在 MHG 测试集上取得了 67.3% 的 F1 分数的词法成分分析器,相较于最佳零 - shot 跨 - 基于提示的微调总是比基本微调更好吗?来自于跨语言理解的洞见
本文提出 ProFiT 管道,研究 Prompt-Based Finetuning 的跨语言能力,发现在语言理解中 Prompt-Based Finetuning 的效果和适用性优于 Vanilla Finetuning,且在少样本场景下表