BriefGPT.xyz
Aug, 2022
神经语言模型的紧凑预训练方法
A Compact Pretraining Approach for Neural Language Models
HTML
PDF
Shahriar Golchin, Mihai Surdeanu, Nazgol Tavabi, Ata Kiapour
TL;DR
本研究表明,使用抽象摘要和关键词提取等技术,从不结构化的数据中构建一个紧凑的子集,可以更有效地和更快地为传统预训练及任务特定分类器的训练提供有关领域内的信息,减少了预训练时间,并在针对六个不同组合的数据集并使用两种不同的NLMs的条件下表现出了优越的结果。
Abstract
domain adaptation
for large
neural language models
(NLMs) is coupled with massive amounts of unstructured data in the
pretraining
phase. I
→