BriefGPT.xyz
大模型
Ask
alpha
关键词
small batch fine-tuning
搜索结果 - 1
面向语料库的无监督语言模型预训练用于密集文本检索
本文提出了 coCondenser 方法,将 Condenser 预训练架构与无监督语料级对比损失相结合,减轻了密集检索器对大规模训练数据和数据工程的依赖,并通过实验表明,该方法具有与 RocketQA 相当的性能。
PDF
3 years ago
Prev
Next