文学文本引文归属中 LLMs 的实际评估:以 LLaMa3 为案例研究
本文研究基于属性的 LLM 发展,在开发 Attributed LLMs 的第一步骤中提出可重复的 Attributed QA 评估框架并评估多种结构。实验结果探讨了如何度量归属(attribution)以及现有方法在归属方面的表现如何,并提出了建立带归属特性的 LLMs 的可能方向。
Dec, 2022
大型语言模型可用于定量信息检索,以帮助数据分析任务,如贝叶斯模型的先验分布以及缺失数据的插补。我们提出了一个提示工程框架,将大型语言模型视为科学文献的潜在空间界面,并与其他已建立的方法进行比较。同时讨论了使用大型语言模型作为 “专家” 的影响和挑战。
Feb, 2024
该论文介绍了一个评估大型语言模型的新颖框架,重点是将图像生成的精确性和召回率指标应用于文本生成。通过对最先进的语言模型进行全面评估,揭示了它们在开放式生成任务上的性能问题,传统基准测试无法充分捕捉到。研究结果表明,在模型通过人类反馈进行微调时,生成样本的质量和多样性之间存在权衡。此工作扩展了基于分布的自然语言处理评估工具包,为当前大型语言模型在生成多样且高质量文本时面临的实际能力和挑战提供了深入洞察。
Feb, 2024
该论文探讨了使用大型语言模型(LLMs)进行自动对话质量评估的方法,并在公共和专有数据集上尝试了各种配置。结果表明,更大的模型产生了更准确的对话标签;算法选择背景上下文示例优于随机选择;在输出最终标签之前,使用 “思维链”(CoT)推理和标签提取过程进行合理化,可以提高性能;精细调整的 LLMs 优于开箱即用的模型。研究结果表明,合适地调整和具有足够推理能力的 LLMs 可以用于自动对话评估。
Jun, 2024
评估大语言模型在教育中的功效,特别是在口语学习领域,引入新的多选题数据集评估模型在理解和应用口语知识方面的表现,研究不同提示技术对模型性能的影响,发现模型在音韵学、语音学和第二语言习得方面具有良好的概念理解,但在解决现实世界问题的推理方面存在限制,并初步探讨了对话交流的发现。
Aug, 2023
本研究通过使用 SummEval 数据集进行一系列分析,证实了大型语言模型作为评估器在以下方面存在偏见和不一致性:(1)体现对低困惑度文本的偏好;(2)显示具有偏见的评分分布;(3)经历多属性判断时的锚定效应。此外,我们分享了配置大型语言模型评估器以减轻这些限制的方法,通过 RoSE 数据集的实验证明了与最先进的大型语言模型评估器相比的改进。
May, 2024
通过对九个流行的大型语言模型的各种生成输出进行经验评估,发现输出中包含的记忆文本比例、独特文本比例和总体输出质量存在关联性,其中高质量的输出中包含的记忆文本比例较高。并提出缓解策略和质量文本的评估方法。
Apr, 2023
最近的文献强调了大型语言模型(LLMs)与学术诚信相关的潜在风险,它们可以记忆部分训练实例并在生成的文本中无妥善归属地复制。此外,鉴于它们在生成高质量文本方面的能力,剽窃者可以利用 LLMs 生成与原作无法区分的逼真释义或摘要。为了应对 LLMs 可能在剽窃行为中的恶意使用,我们介绍了 PlagBench,这是一个综合的数据集,由三个针对不同写作领域的三个指导调整的 LLMs 生成的 46.5K 个合成剽窃案例组成。通过对每种类型的剽窃进行细粒度的自动评估和人工注释来确保 PlagBench 的质量。然后,我们利用我们提出的数据集来评估五个现代 LLMs 和三个专门的剽窃检测器的剽窃检测性能。我们的研究结果表明,与 Llama2 和 GPT-4 相比,GPT-3.5 倾向于生成更高质量的释义和摘要。尽管 LLMs 在摘要剽窃识别方面表现较差,但它们可以超过当前的商业剽窃检测器。总体而言,我们的结果突显了 LLMs 作为强大剽窃检测工具的潜力。
Jun, 2024
在自然语言处理领域中,本研究通过对四个知名的大型语言模型(Llama-2,Falcon,Mistral 和 Zephyr)进行全面的零样本评估,与最先进的微调模型进行性能比较,评估了大型语言模型在电信领域内的知识和理解能力,并发现零样本的大型语言模型能够在这一领域内达到与当前最先进微调模型相当的性能水平,突显了大型语言模型作为理解这一领域不足的各个方面的有价值资源的潜力。
Feb, 2024