Feb, 2024

自我监督对比预训练多元点过程

TL;DR使用 Transformer 编码器的自监督学习方法来处理多元事件流数据,在预训练阶段引入了新的策略,通过随机遮盖事件时刻和插入不存在事件的时刻来扩展遮盖的效果,通过对比真实事件和模拟的不存在事件来提高下游任务的性能,实验证明相较于现有模型,该方法在下一个事件预测任务上能够提升高达 20% 的性能。