关键词reward model
搜索结果 - 48
  • 为奖励建模实现全面偏好数据收集
    PDF8 days ago
  • 通过多目标奖励建模和专家混合解释性偏好
    PDF14 days ago
  • DPO 和 PPO 的剥离:揭示从偏好反馈中学习的最佳实践
    PDF19 days ago
  • 传奇:利用表征工程为偏好数据集标注安全边界
    PDF20 days ago
  • 视频 - 语言评论家:用于语言条件机器人的可转移奖励函数
    PDFa month ago
  • 愿舞者与你同在:非人形舞蹈生成框架
    PDFa month ago
  • 自我探索的语言模型:在线对齐的主动偏好引导
    PDFa month ago
  • 从人类演示中学习奖励优化 SFT 数据:提高 LLM 对齐的方法
    PDFa month ago
  • ReMoDetect:奖励模型识别对齐 LLM 的生成
    PDFa month ago
  • MetaRM: 通过元学习实现偏移分布对齐
    PDF2 months ago
  • 探索奖励差距对偏好模型性能的影响
    PDF3 months ago
  • 基于先验约束的奖励模型训练方法用于对齐大型语言模型
    PDF3 months ago
  • 通过将一个全局显式注释分解为本地隐式多模态反馈以提升对话代理
    PDF3 months ago
  • 使用对比奖励提升来自人类反馈的强化学习
    PDF4 months ago
  • DMoERM:混合专家模型的有效奖励建模方法
    PDF4 months ago
  • 利用领域知识进行 RLHF 中的高效奖励建模:电子商务舆论总结的案例研究
    PDF4 months ago
  • LLM 对齐的贝叶斯奖励模型
    PDF4 months ago
  • 基于 Transformer 的袋装奖励增强学习:面向实例级奖励重新分配的方法
    PDF5 months ago
  • 强化学习中基于人类反馈的免费密集奖励
    PDF5 months ago
  • 对齐大型语言模型的奖励转换与合并
    PDF5 months ago
Prev