本文探讨大型语言模型(LLMs)的可解释性领域,强调了增强 LLMs 可解释性的必要性,重点关注预训练的基于 Transformer 的 LLMs,如 LLaMA,以及改善模型透明度和可靠性的解释性方法和评估方法的分类与讨论。
Jan, 2024
对大型语言模型的解释技术进行分类和总结,并讨论了这些技术在训练范式、生成局部解释和全局解释方面的应用以及评估指标、调试模型和提高性能的挑战和机会。
Sep, 2023
大规模语言模型与可解释模型(Interpretable Models)能够相互配合,LLMs 能够描述、解释和调试广义可加模型(Generalized Additive Models),结合 GAMs 描述的统计模式,使得数据集概述、问题回答和模型评论成为可能。LLMs 还能改进领域专家和可解释模型之间的交互,并产生关于潜在现象的假设。
Feb, 2024
大型语言模型在心理健康方面表现出很大的潜力,但使用它们时需要保持谨慎和考虑,把它们视为辅助人类专业技术而非替代品,因为它们可能产生幻觉般的输出,并且在心理健康咨询中,人类辅导员的情感理解、细致解读和背景意识仍然不可替代。
Nov, 2023
利用大型语言模型将机器学习解释转化为自然的人类可读叙述,以增强解释性和可用性。
May, 2024
使用各种大型语言模型自动生成代码片段的自然语言摘要,研究结果表明,代码语言模型优于其通用模型,而零 - shot 方法在训练集和测试集之间分布不同的数据集上取得了更好的结果。
Oct, 2023
大规模语言模型(LLMs)在重新塑造推荐系统中的重要性得到强调,将其价值归因于传统推荐系统中缺乏的独特推理能力。与缺乏直接用户交互数据的传统系统不同,LLMs 在推荐物品方面表现出卓越的熟练度,展示了其理解语言细微差别的能力,这标志着推荐领域的一个基本范式转变。在充满活力的研究领域中,研究人员积极利用 LLMs 的语言理解和生成能力重新定义推荐任务的基础。本文详细探讨了 LLMs 在推荐框架中的固有优势,包括细微的语境理解、在不同领域之间无缝切换、采用统一的方法、利用共享数据库的全面学习策略、透明的决策制定和迭代改进。尽管具有改变潜力,但仍存在挑战,包括对输入提示的敏感性、偶尔的误解以及意外的推荐,这需要对 LLM 驱动的推荐系统进行持续的完善和演进。
通过引入辩证推理方法,使用大语言模型(LLMs)构建论证框架,从而使 LLMs 的决策能够被自然地解释和争辩,通过在声称验证的决策任务中的实验,我们证明了辩论性 LLMs 的有效性,结果竞争力强于同类技术。
本文旨在提倡对大型语言模型及其相关系统的实际工作进行重新审视,追求更高的科学精度以引领关于人工智能的哲学探索和公众话语。
Dec, 2022
人们对于多模态大型语言模型及其内部机制的理解仍然是复杂的任务,因此该研究提出了一个新颖的交互应用来提高图像补丁的可解释性,并评估语言模型将输出与图像联系起来的效果,通过系统性地研究模型来发现系统的局限性,为提升系统功能铺平道路,案例研究证明该应用在理解流行的大型多模态模型(LLaVA)故障机制方面的作用。
Apr, 2024