将 LLM 和决策变压器相结合,实现语言操作的生成与多样共存
该研究提出了一种新的方法来实现基于行为的轨迹生成,该方法基于 MAP-Elites Low-Spread 和 Quality-Diversity Transformer 两个机制,实现了在不确定环境下生成具有一致性、鲁棒性和可重复性的多样化解决方案,并能够自主地实现目标行为。
Mar, 2023
通过利用生成模型的模式匹配能力,我们提出了 In-context QD 框架,通过将 QD 档案作为上下文,利用预训练的大型语言模型的上下文能力生成有趣的解决方案,在多个领域中展现出有希望的结果,并在 QD 搜索中取得了良好的效果。
Apr, 2024
通过将优化、约束满足和语言模型结合起来,我们提出了一种新颖的方法来解决工程应用中生成模型面临的两个基本挑战:获取高性能多样的数据集和生成符合精确约束的设计。我们的方法使用品质多样性 (Quality-Diversity, QD) 生成多样化、高性能的数据集,并使用该数据集对语言模型进行微调,生成高级设计。然后,使用波函数坍缩算法将这些设计精细化为符合约束的详细布局。我们的系统可靠地遵循文本指导,能够生成具有目标建筑特性和性能特征的布局。关键是,我们的结果表明,通过 QD 的进化搜索合成的数据不仅提高了整体模型性能,而且对模型密切遵循文本指导的能力至关重要。这种改进强调了进化计算在创建用于训练设计生成模型的关键数据集方面所起的关键作用。
May, 2024
使用大型语言模型的语义知识,Language Guided Skill Discovery (LGSD) 基于用户提示输出一组语义上独特的技能,使得四足机器人能够通过改变提示在平面上访问不同的用户预期区域,并且在机器人运动和操作环境中,与五个现有的技能发现方法相比,语言引导有助于发现更多样化的技能。
Jun, 2024
本文介绍了如何将大型语言模型与品质多样性算法相结合进行代码生成,并使用 LLMatic 算法在 CIFAR-10 图像分类基准测试中展示了它可以在不需要先前知识的情况下生成性能良好的神经网络。
Jun, 2023
通过调整参数和不同的提示工程技术,探索大型语言模型在生成多样化设计方案方面的有效性,并通过比较多个参数和提示工程方法的组合,以及使用相同多样性指标与人工设计方案进行比较,结果表明人类生成的解决方案在所有设计主题上始终有更高的多样性评分。
May, 2024
生成常识推理(GCR)需要模型利用常识知识进行推理,同时生成连贯的句子。本论文提出了一种简单的方法来增加大型语言模型(LLMs)生成的多样性,同时保持生成质量。实验结果表明,该方法在生成质量和多样性之间取得了理想的平衡,并且所生成的句子可用于改善现有常识生成器的多样性。
Apr, 2024
大型生成语言模型的关键挑战是多样性,本文通过提出度量多样性的评估数据集和指标,并应用集体批判和自我投票等方法,有效提高模型对人群和文化的多样性。
Oct, 2023
通过改变输入提示的多样性,并借助多种演绎方法,我们提出的 DIV-SE 和 IDIV-SE 方法在不改变解码过程的前提下,通过多种推理调用和单次推理调用中的多样提示,在固定生成预算的情况下,在多个推理基准和最新的计划基准上,优于现有基线,并在最有挑战的 4/5 Blocksworld 任务上超过先前报告的最高准确率至少 29.6 个百分点,从而改进了 LLM 推理的准确性 - 成本权衡的帕累托前沿。
Oct, 2023
本论文提出了一种利用大型语言模型进行机器人交互的方法,用于解决理解语义知识和实现机器人任务之间的矛盾问题,其中引入了基于概率过滤的策略来采用语言模型和基于物理环境的模型两者的优势,通过指导解码策略可以实现复杂的机器人长视程任务。
Mar, 2023