ChatGPT 与我的教授相比,是更好的解释者吗?:评估 LLMs 在对话中的解释能力与人类基准
ChatGPT 的自解释性能与传统方法相媲美,在成本较低的情况下,且具有许多有趣的特性,促使我们重新思考当前在 ChatGPT(类似的 LLM)时代的模型可解释性实践。
Oct, 2023
使用大型语言模型作为反事实解释模块,通过提取潜在特征生成可解释黑盒文本分类器的决策的对策性解释。通过评估多个具体度的框架变体,显示了在不同设置下这些模型的性能差异,其中一种基于两步特征提取的变体在大多数情况下表现最好。该流程可用于自动解释系统,潜在地减少人工工作量。
Sep, 2023
本文研究了机器学习模型在准确区分 ChatGPT 生成文本与人类生成文本时是否能够有效训练,使用可解释的人工智能框架来对模型进行了解释,研究发现采用 ChatGPT 重新短语生成能够使模型识别 ChatGPT 生成文本与人类生成文本之间的差异更具挑战性。
Jan, 2023
本研究对语言模型(LLMs)的理解能力进行了比较和对照,发现人类分析师和 LLMs 的分类和推理能力存在显著差异,但二者合作可能会产生协同效应,从而丰富了定性研究。
Jun, 2023
研究探讨人类和 LLM 生成的对话之间的语言差异,并使用 ChatGPT-3.5 生成的 19.5K 对话作为 EmpathicDialogues 数据集的补充。研究使用了语言查询和词频统计(LIWC)分析,在 118 个语言类别上比较 ChatGPT 生成的对话和人类对话。结果显示人类对话在可变性和真实性方面更出色,但 ChatGPT 在社交过程、分析风格、认知、注意力焦点和积极情绪方面表现优异,加强了 LLM “更接近人类” 的最新发现。然而,在正面或负面情感方面,ChatGPT 和人类对话之间没有显著差异。对话嵌入的分类器分析表明,尽管对话中未明确提及情感,但存在着情感价值的隐式编码。该研究还提供了一个新颖的 ChatGPT 生成的对话数据集,其中包含两个独立的聊天机器人之间的对话,这些对话旨在复制一个开放可访问的人类对话语料库,广泛应用于语言建模的 AI 研究。我们的研究结果增加了对 ChatGPT 的语言能力的理解,并为区分人类和 LLM 生成的文本的持续努力提供了信息,这对于检测由 AI 生成的虚假信息、错误信息和误导信息至关重要。
Jan, 2024
通过 12 个预注册的实验,我们发现像 ChatGPT 这样的运用大型语言模型的聊天机器人能够在很大程度上模仿人类语言处理,但是他们在一些方面与人类处理方式存在差异,并且可能通过 Transformer 架构来解释这些差异。
Mar, 2023
AI 的透明度和责任感的需求增加了,因为对 AI 决策背后的推理进行自然语言解释(NLE)对于澄清重要,但通过人的判断进行评估复杂且资源密集,由于主观性和对细粒度评分的需求。本研究探索了 ChatGPT 与人类评估之间的一致性,涵盖了二元、三元和 7-Likert 量表多个等级尺度。我们从三个 NLE 数据集中抽取了 300 个数据样本,并收集了 900 个人类注释,用于信息量和清晰度评分作为文本质量度量。我们还在不同主观性得分范围内进行了配对比较实验,其中基线来源于 8,346 个人类注释。我们的结果表明,在粗粒度尺度上,ChatGPT 与人类的一致性更好。配对比较和动态提示(即在提示中提供语义上相似的示例)提高了一致性。该研究推进了我们对大型语言模型的理解,以在不同配置中评估文本解释质量,为负责任的 AI 发展做出贡献。
Mar, 2024
本文探讨利用人类书写的样例以几乎无监督的方式创作自由文本解释的任务,发现高质量的提示有助于提高语言模型的生成效果,同时人类研究表明 GPT-3 生成的解释在某些情况下能够胜过人工生成的解释;作者还结合 GPT-3 与学习自评价的筛选器对生成的解释进行过滤,结果表明这一方法能够实现较高水平的解释过滤。
Dec, 2021
本文分析了引入生成式人工智能(AI)的大型语言模型(LLMs)—— 如 OpenAI 的 ChatGPT、GPT3.5 和 GPT4、谷歌的 Bard、Large Language Model Meta AI(LLaMA)等 —— 在通信界面(特别是企业无线产品和服务)中应用的能力和局限性,并针对 Craddlepoint 公开数据进行多个用例的比较分析,包括领域自适应、内容连贯性、输入扰动和错误的鲁棒性。我们相信这种评估将为数据科学家提供建立面向领域特定需求的定制对话接口的有用见解。
May, 2023