生成图解指引
该论文提出了一种简单的、无需训练的框架,通过整合文本理解和图像生成,解决了在生成视觉指令中保持物体的一致性和平滑状态转换的问题,实验证明该方法可以生成一致且具有视觉吸引力的指令。
Jun, 2024
通过将潜在扩散模型与大型语言模型结合,我们提出了一种生成一致图像序列的方法,用于配合多步骤的指南,并在人类参与实验中被 46.6% 的人选择为最佳方法,同时自动评价指标表明该方法在两个领域中能够维持语义连贯性和视觉一致性。
May, 2024
最近,在生成式扩散模型方面取得的进展使得文本控制下合成逼真多样的图像具备了令人印象深刻的质量。但尽管取得了这些显著进展,将文本到图像生成模型应用于标准视觉识别任务的研究仍然有限。本文提出了一种计算机视觉任务的统一语言界面,该界面抽象了任务的具体设计选择,使得任务能够通过自然语言指令来执行。我们将多个计算机视觉任务转化为文本到图像生成问题,其中文本描述任务,生成的图像为视觉编码的任务输出。我们使用大规模语言模型来改写传达每个图像上要执行的特定任务的提示模板,并通过这个过程,创建了一个多模态和多任务训练数据集,包括输入图像、输出图像和带注释的指导说明。通过在构建的数据集上使用 InstructPix2Pix 架构将文本到图像扩散模型进行调节,将其功能从生成模型转变为基于指导的多任务视觉学习器。实验证明,我们的模型 InstructCV 在与其他综合和特定任务视觉模型的竞争中表现出色。而且,它还具备令人信服的对未见数据、类别和用户指令的泛化能力。
Sep, 2023
本文介绍了 instruct-imagen 模型,它解决了异质图像生成任务并且可以泛化到未知任务。我们通过引入多模态指导来完成图像生成的任务表示,利用自然语言将不同的模态(如文本、边缘、风格、主题等)融合在一起,使得丰富的生成意图可以以统一的格式标准化。接着,我们通过两阶段的框架,利用预训练的文本到图像扩散模型进行精调来构建 instruct-imagen 模型。在第一阶段,我们利用检索增强训练方法使模型能够在外部多模态上更好地进行生成。随后,我们对不同的需要视觉语言理解的图像生成任务进行精调,每个任务都与一个包含任务本质的多模态指导相匹配。在各种图像生成数据集上进行的人工评估表明,instruct-imagen 在领域内与先前特定任务的模型相媲美甚至超越,并展示了对未知和更复杂任务的有希望的泛化能力。
Jan, 2024
LLMs 可以通过遵循自然语言指令来完成各种任务,但是指令的质量会对 LLMs 的性能产生极大影响。本文提出了 Auto-Instruct 方法,通过生成多样化的候选指令并使用基于训练过的 575 个 NLP 任务的评分模型进行排序,自动提高 LLMs 的指令质量。在 118 个领域外任务的实验证明,Auto-Instruct 超越了人工编写的指令和现有 LLM 生成的指令的基线。此外,我们的方法还具有显著的泛化能力,即使对于没有被纳入其训练过程的其他 LLMs 也同样有效。
Oct, 2023
该研究介绍了 MM-Instruct,这是一个大规模、多样化和高质量的视觉指导数据集,旨在增强大型多模态模型(LMMs)的指令跟随能力,并通过使用现有的 LLMs 从大规模图像字幕数据集生成新的视觉指导数据,并介绍了一个基于生成的指导数据来评估现有 LMMs 的指令跟随能力的基准。
Jun, 2024
提出了一种名为 ClickDiffusion 的系统,结合自然语言指令和用户通过直接操作界面提供的可视化反馈,将图像和多模态指令序列化为文本表示形式,以实现图像的精确变换和生成。
Apr, 2024
该论文介绍了一种使用预训练大型语言模型对扩散模型进行增强推理能力的方法,包括两个阶段:第一阶段使用大型语言模型生成场景布局;第二阶段使用一个新的控制器,来生成与布局条件相符的图像。实验结果表明,该方法能更准确地生成需要语言和空间推理的图像。
May, 2023
通过 prompt 学习,我们提出了一种学习扩散模型适当文本描述的框架,通过利用预训练扩散模型导出的质量指导和语义指导,我们的方法可以有效地学习提示,从而提高输入文本和生成图像之间的匹配。通过广泛的实验和分析,验证了所提方法的有效性。
Jan, 2024