BriefGPT.xyz
Ask
alpha
关键词
attention mask technique
搜索结果 - 1
同时屏蔽,不是提示优化:同传中微调语言模型的范式转变
利用一种名为 SimulMask 的新模式,通过在 Fine-tuning 期间通过屏蔽注意力连接来建模即时翻译,成功解决了一系列问题,从而使大语言模型在同时翻译任务中取得了显著提升的翻译质量,并减少了计算成本。
PDF
2 months ago
Prev
Next