BriefGPT.xyz
大模型
Ask
alpha
关键词
continued pretraining
搜索结果 - 3
基于 Wav2vec2.0 的自动语音识别领域适应中继续预训练在小学数学课堂环境下的应用
通过持续预训练 (CPT),我们研究了将 Wav2vec2.0 调整到课堂领域的有效性,结果表明 CPT 是一个强大的工具,可以将基于 Wav2vec2.0 的模型的词错误率(WER)降低 10% 以上,改善了模型对不同噪声、麦克风、课堂条
→
PDF
2 months ago
Tower: 一种面向翻译相关任务的开放式多语言大型语言模型
我们提出了一种多任务定制通用大型语言模型的方法,通过在多语言混合单语和平行数据上进行持续预训练,创建了 TowerBase,并在与翻译过程相关的指令上进行微调,创建了 TowerInstruct。我们的最终模型在与翻译工作流相关的多个任务上
→
PDF
4 months ago
EMNLP
持续预训练以提高零样本和少样本提示能力
本研究探讨了在语言模型提示方法中继续预训练阶段是否能够提高零 - shot 以及少量样本情况下语言模型的性能,并通过大规模实验表明使用多任务学习的实时递归预训练策略可将零 - shot 及几轮试验下的效果提高至 31% 相对性能,然而使用元
→
PDF
2 years ago
Prev
Next