关键词self-supervised loss functions
搜索结果 - 3
- EMNLP基于自监督学习的非对比句子表示
通过比较对比句子嵌入方法中的标准基准 SimCSE 与计算机视觉社区中被称为维度对比的自监督损失函数和方法,我们发现使用维度对比目标训练的自监督嵌入能够在下游任务中胜过 SimCSE 而无需辅助损失函数。
- AAAI一次性时间句子定位的假设树构建
本文提出了一种基于叶子节点为每个视频帧的多假设片段树(MHST)的方法,从而解决在极少的帧注释下,实现单次时序句子本地化(one-shot TSL)的问题,并提供了自监督损失函数,与现有方法相比取得了具有竞争力的性能。
- APOLLO: 适应性预训练逻辑推理语言模型的简单方法
本文提出了一个适应性预训练语言模型 APOLLO,使用特定的逻辑推理关键词来选择维基百科的子集进行预训练,使用自我监督损失函数进行训练,无需特定的任务格式,与基线模型相比,在逻辑推理数据集上表现相当或更好。