共形核取样
本文研究了Minimum Bayes Risk (MBR)解码的不同采样方法对性能的影响,并通过人类评测,证明了基于epsilon采样的MBR解码在四种语言对中显著优于其他采样方法下的MBR解码和beam search解码。
May, 2023
通过在语言模型中引入优化问题的框架,我们提出了一种新的解码分布,该分布通过序列级能量函数定义多个度量标准来改善与人类文本的语义一致性,实验证明我们的方法在与人类文本的度量标准一致性和人类评估方面优于强基准模型。
Oct, 2023
通过理论证明截断采样方法能保证所有抽样的Token具有非零真实概率,同时基于模型中的softmax限制证明某些Token具有非零真实概率,我们开发了一种实验性的截断策略,并通过试验展示了其在低熵开放式文本生成中优于传统基于阈值的方法的性能,这些理论发现和试验结果推动了更具表现力的采样算法以展现大型语言模型的生成能力。
Oct, 2023
通过利用最近对非交换式依从预测的研究结果,我们提出了一种新的统一预测框架的扩展,名为非交换式依从核心采样,用于基于最近邻的生成。我们的方法可以后处理任意模型,提供具有统计保证的标记级预测集,并且在机器翻译和语言建模实验中展示了令人鼓舞的生成质量结果。通过产生更紧的预测集并实现良好覆盖率,我们从理论上给出了一种更有原则性的具有依从保证的抽样方法。
Feb, 2024
我们开发了新的一致推断方法,用于获取大型语言模型 (LLMs) 输出的有效性保证。我们通过过滤控制函数的评估结果来确定出LLM响应中满足高概率正确性保证的文本子集。我们的方法解决了现有方法存在的两个问题,首先,所述保证并非条件有效;其次,因为评分函数不完善,过滤步骤可能会删除许多有价值和准确的声明,我们通过两种新的一致方法解决了这两个挑战。
Jun, 2024
使用Reinforcement Learning through Human Feedback (RLHF)与probability-quality relationship方法,我们研究了语言模型对文字生成系统的影响,并提出了适应模型选择的采样适配器。
Jun, 2024
通过从预测集构建的置信度条件中整合正确性对齐的不确定性准则,本研究在自然语言生成任务中,将确定性预测转化为严格的理论保证,从而解决了最近大型语言模型中的异构不确定性问题,并利用抽样不确定性测量方法提高了先前最先进的方法。通过在模型的非固定答案分布中校准预测集,实现对6个大型语言模型在4个自由格式的自然语言生成数据集上的正确覆盖率的严格控制,证明了我们的方法在实际开放式自然语言生成应用中提供可靠保证的高效性。
Jun, 2024