BriefGPT.xyz
Ask
alpha
关键词
aligning human preference and value
搜索结果 - 1
联合演示与偏好学习改善与人类反馈的政策对齐
将人类偏好和价值观进行对齐是构建当代基础模型和具身化人工智能的重要需求。本文提出了一种名为 “AIHF(Alignment with Integrated Human Feedback)” 的单阶段方法,能够集成人类偏好和演示来训练奖励模型
→
PDF
25 days ago
Prev
Next