关键词unsupervised sentence representation learning
搜索结果 - 2
- CoT-BERT: 通过思维链增强无监督句子表示
利用无监督的句子表示学习方法,通过对输入句子进行转换,得到富含复杂语义信息的定长向量表示,消除了对标注数据的依赖。本文提出了一种两阶段的方法,通过理解和总结对预训练模型(如 BERT)的潜在能力进行开发,并通过精细调整对比学习损失函数和模板 - 无监督的句子表示学习:基于频率诱导的对抗调整和不完整句子过滤
提出了一种新的无监督句子表示学习(USRL)框架,称为带有频率诱导的对抗微调和不完整句子过滤器的句子表示学习(SLT-FAI),通过利用单词频率信息来解决预先训练语言模型(PLM)中单词频率信息敏感性带来的相似偏差和信息偏差问题,此框架灵活