BriefGPT.xyz
大模型
Ask
alpha
关键词
instruction-tuned model
搜索结果 - 5
从 RAG 到 RICHES:检索交织序列生成
RICHES 是一种新颖的方法,通过在检索和序列生成任务中交替进行,消除了传统 RAG 系统中分离的检索器和生成器的需求,通过编码内容直接检索文档并在语料库上进行约束。统一检索与生成使我们能够仅通过提示适应多样化的新任务,而不需要额外的训练
→
PDF
5 days ago
对 DPO 及其变种在多个任务中的对齐研究
通过评估不同情景下的对齐方法性能以及训练规模对其影响,本研究发现对齐方法在较小的训练数据子集中表现最佳,在推理任务中效果有限但在数学问题解决中有显著影响,而使用调整指令的模型对真实性有明显影响,这些发现将推动进一步研究以解决对齐挑战。
PDF
2 months ago
对齐之毒
通过实验证明,内容安全问题角度来看,对齐对指令调整模型的性能有负面影响,尤其是在各种推理基准测试中,通过有对齐的答案进行调整会使性能下降 4-33%。
PDF
10 months ago
ACL
STORYWARS:协作式故事理解和生成的数据集和指导调优基线
介绍了一个新的 STORYWARS 数据集,由九千多名不同作者在线协作创作了超过 40,000 个协作故事,并在其中设计了 12 种任务类型,共 101 个不同的故事相关任务。此外,展示了针对这些任务的模型 INSTRUCTSTORY。模型
→
PDF
a year ago
BioTABQA: 医学表格问答的指令学习
本文在生物医学领域维度构建了一个表格问答数据集 BioTABQA,包含 22 个模板和上下文中的信息。通过该数据集,本文提出了一种基于指导学习的方法,在多个评估方式下,该方法比单一和多任务基线模型表现提高约 23% 和 6%。最重要的是,在
→
PDF
2 years ago
Prev
Next