BriefGPT.xyz
大模型
Ask
alpha
关键词
masked autoencoder (mae)
搜索结果 - 3
通过过度拟合掩码自编码器检测生成抄袭
通过采用过拟合的蒙面自动编码器(MAE)来有效检测生成式模型中的模仿样本,我们的研究提出了一种应对版权完整性问题的新方法。基于训练数据集上的平均损失建立检测阈值,从而可以精确识别修改后数据集中的模仿内容。初步评估表明我们的方法具有潜力,可以
→
PDF
3 months ago
ICLR
基于混合簇条件专家的任务定制化遮蔽自编码器
提出了一种新的基于混合的聚类条件专家(MoCE)的 MAE 预训练范式,为不同的下游任务提供定制化的预训练模型,通过使用聚类条件门将每个专家仅与语义相关的图像进行训练,从而克服了 MAE 可扩展性中的负迁移问题。
PDF
5 months ago
MTS-LOF: 医学时间序列表示学习的遮挡不变特征
医学时间序列数据的表征学习的新框架 MTS-LOF 借鉴对比学习和掩蔽自编码器方法的优势,通过多掩蔽策略学习医学时间序列数据中的丰富上下文信息,并证明优于其他方法,可显著增强医疗应用的表征学习。同样,该研究对联合嵌入自监督学习和自编码器技术
→
PDF
8 months ago
Prev
Next