BriefGPT.xyz
大模型
Ask
alpha
关键词
self-pretraining
搜索结果 - 3
联邦文档视觉问答:一项初步研究
使用联邦学习方案训练基于分散私密文档数据的共享模型,以丰富各种领域中 DocVQA 模型的数据异质性,结合自预训练技术和集中自适应优化的联邦文档 VQA 训练方法优于 FedAvg 基线,并通过大量实验提供关于使用联邦学习训练 DocVQA
→
PDF
2 months ago
下游数据集出人意料地成为良好的预训练语料库
本文介绍了一个大规模的自我训练研究,其中使用相同的(下游)训练数据进行预训练和微调,并且观察到自我预训练可以与标准预训练相媲美,这表明在许多情况下,预训练性能增益主要受预训练目标本身的驱动,而不一定是庞大数据集的影响。
PDF
2 years ago
WSDM
利用自我预训练的半监督文本分类
该研究提出了一种名为 Self-Pretraining 的神经半监督学习模型,该模型可以无阈值地更新先前标记的文档的信念,并且可以处理语义漂移问题,使用迭代蒸馏过程,跨迭代传输假设,利用两阶段训练模型,使用高效的学习率调度和使用伪标签转换启
→
PDF
3 years ago
Prev
Next