May, 2024

同时屏蔽,不是提示优化:同传中微调语言模型的范式转变

TL;DR利用一种名为 SimulMask 的新模式,通过在 Fine-tuning 期间通过屏蔽注意力连接来建模即时翻译,成功解决了一系列问题,从而使大语言模型在同时翻译任务中取得了显著提升的翻译质量,并减少了计算成本。