BriefGPT.xyz
大模型
Ask
alpha
关键词
mixture-of-textual-experts
搜索结果 - 1
CoT-MoTE: 通过文本专家混合探索上下文掩码自编码器预训练以进行段落检索
该研究探讨了使用 Mixture-of-Textual-Experts 的 Contextual Masked Auto-Encoding 预训练模型进行 Passage retrieval 以提高检索效果。实验结果显示该方法可以更加平衡地
→
PDF
a year ago
Prev
Next