Neeko: 提高效率的多角色扮演智能体的动态 LoRA 利用
提出了 MultiLoRA,通过减少 LoRA 中观察到的顶层奇异向量的主导性,通过水平扩展 LoRA 模块和改变适应矩阵的参数初始化来减少参数依赖性,从而产生更平衡的单元子空间,从而实现更好的多任务适应性。MultiLoRA 在多个基准和模型规模上优于单个 LoRA 对应项和微调,仅需额外 2.5%的参数。对 MultiLoRA 的权重更新矩阵进行进一步研究表明,其对顶层奇异向量的依赖性减小,单元变换贡献更加均衡。
Nov, 2023
我们介绍了 HeteroLoRA,这是一种轻量级的搜索算法,通过利用零成本代理在模型中分配有限的 LoRA 可训练参数,以提高微调性能,并在更具挑战性的搜索空间中展示了 HeteroLoRA 的有效性。
Jun, 2024
通过整合精细调整的大型语言模型与具有逻辑推理、规划和交互式约束求解能力的强大符号推理引擎,本研究介绍了 Cora,一个基于神经符号人工智能平台构建的协作研究助手,该助手旨在高风险领域执行复杂的研究和探索任务。本研究讨论了此类领域中的多步推理挑战,批评了现有的基于大型语言模型的方法的局限性,并展示了 Cora 的神经符号方法如何有效应对这些问题。我们提供了系统架构概述、知识提取和形式推理的关键算法,并展示了初步评估结果,突显了 Cora 与知名的大型语言模型和 RAG 方法相比的优越性能。
Jun, 2024
LoRA 是一种高效适应大型语言模型 (LLM) 的首选方法,具有显著的简洁性和有效性,本文提供了对原始 LoRA 论文的补充视角,并为大规模部署 LoRA 提供了一系列的见解,以改善对 LoRA 的理解和应用。
Apr, 2024
近期大型语言模型(LLM)在实现具备人类级智能的自主代理方面显示出了潜力,然而现有用于评估 LLM 代理的基准要么使用静态数据集,可能导致数据泄露,要么仅关注单一代理情景,忽略多代理交互的复杂性。我们引入了 LLMArena,这是一个新颖且易于扩展的框架,用于评估 LLM 在多代理动态环境中的各种能力。LLMArena 涵盖了七个不同的游戏环境,使用 Trueskill 评分来评估 LLM 代理的关键能力,包括空间推理、战略规划、数值推理、风险评估、沟通、对手建模和团队协作。通过对不同规模和类型的 LLM 进行广泛实验和人类评估,研究表明 LLM 在对手建模和团队协作方面仍有很长的发展道路,希望 LLMArena 能指导未来的研究,进一步增强 LLM 的这些能力,最终实现在动态多代理环境中更复杂和实用的应用。代码和数据将提供。
Feb, 2024
提出了一种个性化的 LoRA(PLoRA)方法,采用插拔框架,通过个性化的适应、自适应的 dropout 和最大化互信息的策略,解决了个性化应用中用户标记数量多、语义模糊等问题,从而更好地适应于冷启动情况,并在人文化文本理解任务的全面 / 少量 / 零样本学习场景中超越了现有方法。
Mar, 2024
通过利用专家语言知识,我们的方法 HyperLoRA 可以通过超网络实现资源高效的适应,从而提高对未知方言的泛化能力,为数十亿传统上代表性不足的英语方言使用者提供语言技术的便利访问。
Nov, 2023
我们提出了一种新颖的多机器人协作方法,利用预训练的大型语言模型(LLMs)进行高层通信和低层路径规划,通过机器人之间的交流和集体推理任务策略,并生成子任务计划和任务空间路径,应用于多臂运动规划,以加速轨迹规划,并在环境中提供反馈,如碰撞检测,以促使 LLM 代理改进其计划和路径点。我们提出了 RoCoBench,一个包含六个任务的广泛多机器人协作场景的基准测试,伴随着一个纯文本数据集用于代理表示和推理。我们在实验证明了我们方法的有效性 - 它在 RoCoBench 的所有任务上都取得了高成功率,并且能够适应任务语义的变化。我们的对话设置提供了高度的可解释性和灵活性 - 在真实世界的实验中,我们展示了 RoCo 可以轻松地与人工智能交互,用户可以与机器人代理合作完成任务。请参考项目网站以观看视频和获取代码。
Jul, 2023
我们通过应用特征性数据提升小型角色扮演语言模型,实验证明使用我们的数据集训练的模型在一般和与个性相关的评估中展现了高级角色扮演能力。
Jun, 2024
我们提出使用角色概况任务来评估大型语言模型(LLMs)的角色理解能力,通过从对应的材料中总结角色概况,构建 CroSS 数据集并比较与下游任务的适用性,我们的实验结果强有力地验证了 LLMs 的角色理解能力,并且我们相信我们构建的资源将促进该领域的进一步研究。
Apr, 2024