提升 LLMs 的信任度:比较和解释 LLMs 的算法
介绍了 TrustLLM,这是一个关于 LLM(大型语言模型)信任度的综合研究,包括不同维度的信任度原则、建立的基准、评估和分析主流 LLM 的信任度,以及对开放挑战和未来方向的讨论。
Jan, 2024
NLP 中,大型语言模型(LLMs)的成功推动了其显著突破,本文对 LLM 的评估方法进行了全面探索,提供了选择和解读已使用度量标准的见解,并采用最新的生物医学 LLM 进行了这些度量标准的应用比较,旨在为研究人员提供一个实用的指南,推进对这些大型语言模型的理解和应用。
Apr, 2024
为了确保大型语言模型在实际应用中与人类意图保持一致,本研究介绍了对 LLM 值得信赖性进行评估时需要考虑的关键维度,包括对 LLM 的可靠性、安全性、公平性、抵抗滥用性、可解释性和推理性、遵守社会规范以及鲁棒性进行调查研究。通过对几个广泛使用的 LLM 进行测试,研究结果表明,总体上,更加符合人类意图的模型在整体可信度方面表现更好,但是模型对不同可信度类别的影响程度有所不同,这凸显了在 LLM 对齐方面进行更加细致的分析、测试和不断改进的重要性。本研究旨在为该领域的从业人员提供有价值的见解和指导,理解和解决这些问题对于在各种应用中实现可靠和符合伦理的 LLM 部署至关重要。
Aug, 2023
自然语言生成(NLG)评估中引入大型语言模型(LLM)为评估生成内容质量提供了新的途径,本文提供了对利用 LLM 进行 NLG 评估的全面概述,包括组织现有基于 LLM 的评估指标的一致性分类法、批判性评估不同的 LLM 方法以及比较其在评估 NLG 输出中的优势和局限性,讨论未解决的挑战,并推动更公平、更先进的 NLG 评估技术。
Jan, 2024
大型语言模型中的社会偏见评估和缓解技术的综述,介绍了社会偏见与公平的概念、评估指标和数据集,以及介绍了干预方法的分类和研究趋势,帮助研究人员和实践者更好地理解和防止偏见在大型语言模型中的传播。
Sep, 2023
大型语言模型的评估常常会受到不适当使用评估基准和误导性解读评估结果等问题的影响。本研究通过大量实验发现,评估基准泄漏会极大地提高评估结果,从而导致对模型性能的不可靠评估。最后,为大型语言模型的开发者和基准维护者提出了一些建议。
Nov, 2023
该论文介绍了一个评估大型语言模型的新颖框架,重点是将图像生成的精确性和召回率指标应用于文本生成。通过对最先进的语言模型进行全面评估,揭示了它们在开放式生成任务上的性能问题,传统基准测试无法充分捕捉到。研究结果表明,在模型通过人类反馈进行微调时,生成样本的质量和多样性之间存在权衡。此工作扩展了基于分布的自然语言处理评估工具包,为当前大型语言模型在生成多样且高质量文本时面临的实际能力和挑战提供了深入洞察。
Feb, 2024
提出了 LLMMaps 作为一种新的可视化技术来评估大型语言模型的性能,可以支持分层评估, 来更好地评估 LLM 的风险并引导未来的发展。LLMMaps 可以将 Q&A 数据集以及 LLM 响应转换为内部知识结构进行详细分析,并允许多个 LLM 进行比较。
Apr, 2023
通过以人、过程和技术为视角,功能性和安全性为支柱,使用我们的统一评估框架,对 23 个最先进的 LLM 基准进行了研究,发现了显著的限制,并强调了在人工智能进步的背景下,标准化方法、监管确定性和伦理指南的迫切需求,以及通过协作努力发展被广泛接受的基准和增强人工智能系统融入社会的重要性。
Feb, 2024
大语言模型的评估方法学的引入和标准化是一个重要的挑战,本文追溯了 LLM 评估的历史轨迹,从 Alan Turing 提出的基础问题到现代人工智能研究的时代。我们将 LLM 的发展划分为不同的时期,每个时期都有其独特的基准和评估标准。随着 LLM 越来越像人类行为,传统的评估指标,如图灵测试,变得不太可靠了。我们强调了对统一评估体系的迫切需求,考虑到这些模型的更广泛的社会影响。通过对常见评估方法的分析,我们主张在评估方法上进行定性转变,强调标准化和客观标准的重要性。本研究呼吁人工智能社区共同解决 LLM 评估的挑战,确保其可靠性、公正性和社会利益。
Nov, 2023