BriefGPT.xyz
Ask
alpha
关键词
retrieval-oriented language models
搜索结果 - 2
ACL
RetroMAE-2: 双工遮蔽自编码器用于预训练面向检索的语言模型
本文提出了一种新的预训练方法,名为 Duplex Masked Auto-Encoder(DupMAE),以改善用于信息检索任务的上下文嵌入的语义表示质量,其中所有上下文嵌入都可以被利用。通过两个互补的自编码任务,联合训练一个统一的编码器,
→
PDF
a year ago
RetroMAE v2:用于预训练检索定向语言模型的双工掩蔽自编码器
本文介绍了一种新的预训练方法 ——DupMAE,该方法可同时提高 [CLS] 和普通 token 的语境嵌入的语义表示能力,取得了在 MS MARCO 和 BEIR 基准测试中显著的改进效果。
PDF
2 years ago
Prev
Next