BriefGPT.xyz
大模型
Ask
alpha
关键词
pretraining procedure
搜索结果 - 2
一种用于时间序列的监督对比学习预训练 - 微调方法
引入一种新的预训练程序,利用有监督对比学习来区分每个预训练数据集中的特征,进而通过将目标数据与预训练数据集的学习动态更加紧密地对齐,以提高目标数据的准确预测。
PDF
7 months ago
大规模块级自监督学习
该论文中,我们使用最新的自监督学习技术,探索了全面反向传播的替代方法,即以块为单位的学习规则。我们证明了一个块状预训练程序,由 ResNet-50 的 4 个主要层块独立训练并使用 Barlow Twins' loss 函数,在 Image
→
PDF
a year ago
Prev
Next