ACLNov, 2023

一种高效的自监督跨视角句子嵌入训练

TL;DR我们提出了一种称为自监督跨视图训练(SCT)的框架,以缩小大型和小型预训练语言模型(PLM)之间性能差距,并在 7 个语义文本相似性(STS)基准测试中通过与 5 个基准和最先进的竞争对手的比较,在参数数量从 4M 到 340M 范围内的 5 个 PLMs 上证明 STC 在 21 个案例中的 18 个中胜过竞争对手,对于参数少于 100M 的 PLMs 表现出色。