关键词natural language critiques
搜索结果 - 3
- 改进奖励模型通过合成批评
利用大型语言模型生成的合成自然语言评论提供额外的反馈,评估指令遵循、正确性和风格等方面,提供更丰富的信号和更强大的特征,从而提高奖励模型的性能和数据效率,同时增强了奖励模型训练的可解释性和鲁棒性。
- 通过对比强化学习实现故事讲述的鲁棒性偏好学习
使用对抗式生成模型和强化学习算法,本论文提出了一种新型的人工智能故事生成系统,能够根据人类喜好和偏好生成自然语言故事。
- 自我批评模型用于辅助人类评估员
本文介绍了利用大型语言模型进行自然语言批判的方法,帮助人们更有效地检测摘要中的问题,并着重研究了批判能力的缩放特性和与生成能力和辨别能力的比较,为机器学习系统的监督提供了 AI 辅助人类反馈的概念证明。