关键词reward model
搜索结果 - 48
  • 迭代数据平滑:在 RLHF 中缓解奖励过拟合和过优化
    PDF5 months ago
  • 利用人类反馈改进机器翻译:基于质量估计的奖励模型探索
    PDF5 months ago
  • WARM: 关于加权平均奖励模型的好处
    PDF5 months ago
  • 上下文强化学习中基于一般协变量转移的分布稳健策略评估
    PDF5 months ago
  • 基于结构风险最小化的未知奖励模型的逆强化学习
    PDF6 months ago
  • RLHF 中的策略优化:偏离偏好数据的影响
    PDF7 months ago
  • 压缩与对齐:用人类知识筛选图像文本数据
    PDF7 months ago
  • 纳什学习来自人类反馈
    PDF7 months ago
  • 利用人类反馈对扩散模型进行微调,无需任何奖励模型
    PDF7 months ago
  • 基线分析奖励模型在分布转移下准确分析基础模型的能力
    PDF7 months ago
  • 神经机器翻译模型的对齐:训练和推理中的人工反馈
    PDF8 months ago
  • SuperHF:基于人类反馈的监督式迭代学习
    PDF8 months ago
  • 守口如瓶:从人类反馈中减轻强化学习的长度偏差
    PDF9 months ago
  • 奖励(不)一致性对 RLHF 的渗透影响
    PDF9 months ago
  • 使用人类反馈的 3 分钟扩散模型的审查取样
    PDFa year ago
  • 精细调整包容性语言模型的代理 - 环境接口破碎
    PDFa year ago
  • 为离线评估学习动作嵌入
    PDFa year ago
  • 利用 POMDP 树搜索进行奖励模型调和的解释
    PDFa year ago
  • 使用强化学习将英语中等规模 GPT 模型对齐到西班牙语小闭域中
    PDFa year ago
  • 奖励数百万用户与聊天机器人的现实世界互动
    PDFa year ago