Token Trails: 导航对话 AI 中的上下文深度
本研究介绍了 LLMTrack 模型,展示了如何利用大型语言模型(LLMs)通过采用一种独特的单提示技术,结合角色扮演和逐步思考方法,处理未经处理的惯性测量单元(IMU)数据,实现零通道轨迹识别。通过对真实世界数据集进行评估,我们发现在室内和室外场景中,LLMTrack 不仅达到了传统机器学习方法以及当代深度学习模型所设定的性能基准,甚至超过了这些基准,而且无需在特定数据集上进行训练。我们的研究结果表明,在经过精心设计的提示的指导下,LLMs 可以利用其丰富的知识库,以极高的效率分析原始传感器数据。
Mar, 2024
我们提出了 MemWalker,这是一种将长上下文处理成摘要节点树的方法,模型通过迭代提示的方式导航该树以寻找相关信息并一旦收集足够信息便回答问题,在长文本问答任务上,我们方法的性能优于使用长上下文窗口、重复和检索的基线方法。通过交互式阅读文本,MemWalker 还提升了解释能力,突出了推理步骤,并准确指出与查询相关的文本片段。
Oct, 2023
大语言模型(LLMs)的一个优点是它们的情境化能力 —— 根据学生的输入(如解决方案策略或前期讨论)提供不同的回应,以更好地让学生参与其中。我们提出了一个概念验证的 LLM 应用的设计和评估,以为学生提供动态和情境化的反馈。具体来说,我们在一个大学级别的云计算课程的在线编程练习机器人中加入了 ChatGPT,它在数据库设计的协作查询优化任务中为学生提供情境化的反思触发点。我们展示了 LLMs 可以用于生成高度情境化的反思触发器,这些触发器结合了上下文中正在进行的协作讨论的详细信息。我们详细讨论了触发器设计空间的探索以及其与学习目标的对应关系,以及在一项涉及 34 名学生的试点研究中对学生学习的影响。
Apr, 2024
本研究探讨了大型语言模型(LLM)在改进基于流水线的对话代理中的能力,并通过私人银行业务的实例证明了 LLMs 的潜力和公司采用混合方法的好处。
Sep, 2023
本文分析了引入生成式人工智能(AI)的大型语言模型(LLMs)—— 如 OpenAI 的 ChatGPT、GPT3.5 和 GPT4、谷歌的 Bard、Large Language Model Meta AI(LLaMA)等 —— 在通信界面(特别是企业无线产品和服务)中应用的能力和局限性,并针对 Craddlepoint 公开数据进行多个用例的比较分析,包括领域自适应、内容连贯性、输入扰动和错误的鲁棒性。我们相信这种评估将为数据科学家提供建立面向领域特定需求的定制对话接口的有用见解。
May, 2023
该研究主要探讨了大型语言模型在过程挖掘中的应用,以增强对话代理的能力,并改进了现有解决方案的许多问题,提高了可访问性和代理性能。通过实验验证了该框架在公共问题和数据集上的效果,为进一步探索大型语言模型在过程挖掘中的作用奠定了基础,并提出了改进大型语言模型记忆、实时用户测试和研究多样化数据集的建议。
Jul, 2023
综合审查了 150 多个大型语言模型(LLMs)的深入评估,提出了结合知识图谱的结构化动态与 LLMs 的语言能力的新型功能架构。通过使用真实的人工智能新闻数据进行验证,该架构成功地将语言复杂性与事实严谨性相结合,并通过基于角色的访问控制进一步加强了数据安全性。这项研究洞察了对于高效、透明和值得信赖的系统的迫切需求,突出了会话式人工智能领域的不断演变趋势。
Aug, 2023
通过对多个 LLM 模型的研究,本文不仅提供了全面的概述,还明确了现有挑战,并指出了未来的研究方向。该综述提供了关于生成型人工智能的当前状态的全面观点,为进一步的探索、增强和创新提供了启示。
Mar, 2024
提出了一种名为 TOKEN 的多模态大语言模型(MM-LLM),通过在长尾场景中对传统的端到端驾驶模型进行优化,将世界分解为物体级知识的令牌化,有效缓解了数据稀缺和低效的标记问题,并实现了在基于常识的推理能力上的优越表现。
Jul, 2024