BriefGPT.xyz
Ask
alpha
关键词
continuous pre-training
搜索结果 - 3
谎言的集袋:BERT 在持续预训练中的鲁棒性
研究利用 COVID-19 作为案例,探讨 BERT 的持续预训练阶段,尤其是实体知识的获取。结果表明,持续预训练使得 BERT 对 COVID-19 具有一定的实体知识。在使用事实核查基准 Check-COVID 测试连续预训练的鲁棒性时
→
PDF
24 days ago
EMNLP
使用确定性事实知识进行语言模型预训练
该论文提出了一种基于确定性关系的预训练方法,利用外部知识库识别确定性关系并连续预训练语言模型以提高其在提取事实知识方面的鲁棒性,试图学习与之相关的确定性关系有助于知识密集型任务。
PDF
2 years ago
ICML
Protum: 一种基于 [MASK] 的新的提示调整方法
本文提出了一种基于 'MASK' token 编码的 Prompt Tuning 方法 ——Protum,通过隐藏层信息构造分类任务并直接预测标签,相较于 fine-tuning,该方法在较短的时间内连续预训练后取得了更好的性能。
PDF
2 years ago
Prev
Next