BriefGPT.xyz
Ask
alpha
关键词
empirical insights
搜索结果 - 2
FedLLM-Bench:面向大型语言模型的联邦学习实验基准
基于 FedLLM-Bench 数据集,我们在多个数据集上进行了实验,对现有的 FL 方法进行了基准测试,在多语言协作等方面提供了实证见解。
PDF
a month ago
广义偏好优化:一种离线对齐的统一方法
离线偏好优化通过直接从离线数据微调大型模型,已在最近的对齐实践中证明了其有效性。我们提出了广义偏好优化(GPO),一种由一类凸函数参数化的离线损失函数家族。GPO 实现了对偏好优化的统一视角,包括现有的算法,如 DPO、IPO 和 SLiC
→
PDF
5 months ago
Prev
Next