知识密集环境中的聊天机器人:意图和基于 LLM 的系统的比较
本文全面调查了基于大型语言模型(LLMs)的聊天机器人在各个领域的进化和部署,总结了基础聊天机器人发展、LLMs 演进,并提供了当前正在使用和开发中的基于 LLMs 的聊天机器人概述。我们将 AI 聊天机器人视为生成新知识的工具,探讨了它们在各个行业中的多样应用。然后,我们讨论了一些挑战,包括训练 LLMs 使用的数据和生成知识的滥用可能引发的问题。最后,我们展望未来,探索如何提升它们在众多应用中的效率和可靠性。通过介绍 LLMs-based 聊天机器人的关键里程碑和当今背景,我们的调查邀请读者深入研究这一领域,并思考它们的下一代将如何重塑对话型人工智能。
Jun, 2024
大型语言模型(LLM)助手是帮助用户浏览复杂多功能软件的潜在替代方法。我们通过与 16 名参与者的实验和后续访谈对 LLM 生成的软件指导进行了研究。我们比较了基准 LLM 助手与一种针对特定软件背景优化过的 LLM 助手 SoftAIBot,后者还提供了构建适当提示的指南。但令人惊讶的是,虽然 SoftAIBot 优于基准 LLM,但我们的结果显示,无论是否使用提示指南和领域上下文的集成,LLM 的使用和用户感知没有显著差异。大多数用户难以理解提示文本与 LLM 的回应之间的关联,并且通常逐字逐句地遵循 LLM 的建议,即使是错误的。这导致在使用 LLM 的软件任务建议时出现困难,降低了任务完成率。我们的详细分析还表明,用户对 LLM 的回应中的错误毫不知情,这表明他们在软件专业知识的缺乏和评估 LLM 助手的能力之间存在差距。随着设计领域特定 LLM 助手的推动日益增加,我们强调将可解释的、上下文感知的提示融入 LLM 中的重要性,以帮助用户理解基于提示的交互,识别偏见,并最大化 LLM 助手的效用。
Feb, 2024
使用大型语言模型和聊天机器人可以简化法律领域的信息获取流程,从而降低法律援助组织的工作量和成本,提高服务的可用性,并使其更容易被更广泛的人群所利用。然而,当前的语言模型存在一个关键挑战,即其倾向于过于自信地根据训练数据的输出分布提供客户问题的‘最佳猜测’,往往忽视了客户的真实意图或具体法律情况,因此,客户可能没有意识到提供重要的额外背景信息或表达其潜在意图的重要性,这在他们的法律案件中至关重要。本文展示了通过自由形式的语言交互使用大型语言模型来引出和推断客户的潜在意图和具体法律情况的概念验证,并提出了未来的研究方向,即使用有监督的精细调整或离线强化学习来在聊天机器人中自动融入意图和语境引出,而无需明确提示。
Nov, 2023
本文分析了引入生成式人工智能(AI)的大型语言模型(LLMs)—— 如 OpenAI 的 ChatGPT、GPT3.5 和 GPT4、谷歌的 Bard、Large Language Model Meta AI(LLaMA)等 —— 在通信界面(特别是企业无线产品和服务)中应用的能力和局限性,并针对 Craddlepoint 公开数据进行多个用例的比较分析,包括领域自适应、内容连贯性、输入扰动和错误的鲁棒性。我们相信这种评估将为数据科学家提供建立面向领域特定需求的定制对话接口的有用见解。
May, 2023
该论文介绍了一种利用大型语言模型技术支持智能代理语义词典中新条目的自动学习的系统。这种学习方法通过现有的非玩具词典和自然语言生成器引导启动,将意义的表达按基本本体建立转换为自然语言句子。此学习方法已应用于学习多词表达式,其含义与智能代理语义词典中的及物动词等效。实验展示了一种融合基于知识的方法、资源、传统数据分析和大型语言模型的混合学习架构的优势。
Dec, 2023
我们提出了一种基于大型语言模型和智能设备的对话式 AI 治疗师平台 (CaiTI),该平台可以通过自然和心理治疗对话来筛查日常功能,提供个性化对话流程,并提供认知行为疗法和动机性面谈等对话式心理治疗干预。通过与心理治疗师合作进行实验证明,CaiTI 能够与用户自然对话,准确理解和解释用户的回应,并适当有效地提供心理治疗干预,展示了 CaiTI 大型语言模型在心理治疗诊断和治疗中的潜力,以及日常功能筛查和预防性心理治疗干预系统的改进。
Mar, 2024
本研究对语言模型(LLMs)的理解能力进行了比较和对照,发现人类分析师和 LLMs 的分类和推理能力存在显著差异,但二者合作可能会产生协同效应,从而丰富了定性研究。
Jun, 2023