个性化多模态生成与大型语言模型
UniMP 是一种统一的多模式个性化系统的范式,通过使用多模态数据并消除任务和模态特定定制的复杂性,充分发挥了基础生成模型的灵活性和效力,以实现广泛的个性化需求,包括物品推荐、产品搜索、偏好预测、解释生成和用户引导的图像生成。
Mar, 2024
多模态生成技术的调查,介绍了不同领域中的重要进展,包括图像、视频、3D 和音频,研究了方法和数据集,还提出了使用现有生成模型进行人机交互的工具增强型多模态代理,同时探讨了人工智能安全问题和新兴应用及未来前景。
May, 2024
通过使用参数高效的微调模式和计算仿生记忆机制,我们提出了一种新颖的个人化大语言模型方法,该方法在用户导向的生成任务中展示了卓越的效果和优越性能。
Sep, 2023
通过对具有多模态能力的 LLM 和 MM-LLM 的当前状况进行广泛回顾,本文涵盖了 LLM 的历史发展、注意力机制在提升模型性能方面的作用,以及 Fine-tuning 和 prompt engineering 等模型调整技术。同时还分析了伦理考虑和挑战,并讨论了开源和专有模型在 AI 研究中的影响。通过这个综述,我们揭示了 MM-LLM 在各种应用中的转型潜力。
Mar, 2024
个性化文本生成是一个新兴的研究领域,通过使用大型语言模型 (LLMs),我们提出了一种通用的个性化文本生成方法。借鉴写作教育的实践,我们开发了一个多阶段和多任务的框架来教授 LLMs 进行个性化生成。我们的方法包括检索、排名、总结、综合和生成多个阶段,并引入了一个多任务设置来进一步提高模型的生成能力。我们在三个涵盖不同代表性领域的公开数据集上评估了我们的方法,结果显示相对于各种基线模型,我们取得了显著的改进。
Aug, 2023
本文介绍了一种新颖的贝叶斯提示方法,通过使用一个语言大模型(LLMs)中的一个模糊概率图模型(PGM)来实现无需训练的贝叶斯推理。我们的模型在多个组合推理任务中取得了良好的效果,有效提升了置信度的引发和文本生成质量,显示出在模拟不确定性方面提高人工智能语言理解系统的潜力。
Jun, 2024
通过使用离线总结和运行时检索,我们提出了一种新颖的基于总结的方法,扩展了基于检索的个性化,以实现更好的实时系统性能,并在实际约束下取得了更好的个性化性能。
Oct, 2023
该研究介绍了一种基于多模态大型语言模型的生成助手(LLMGA),利用大型语言模型(LLM)中内在的知识和理解能力,帮助用户进行图像生成和编辑,通过精确控制生成提示实现对稳定扩散(SD)的控制,以提供更精细、准确的内容和更直观的网络解释性,同时还提出了一个两阶段的训练方案来优化 SD 的生成结果,并引入基于参考的恢复网络来减少图像编辑过程中生成区域与保留区域之间的纹理、亮度和对比度差异。广泛的实验结果表明,LLMGA 具有很好的生成能力,并能以交互方式在更广泛的应用中发挥作用。
Nov, 2023
通过输入增强措施,我们研究了各种提示策略来提高大型语言模型在个性化内容推荐中的性能。我们提出了一种名为 LLM-Rec 的方法,包括四种不同的提示策略:基本提示、推荐驱动的提示、参与驱动的提示和推荐驱动加参与驱动的提示。我们的实证实验证明结合原始内容描述和 LLM 生成的增强输入文本,使用这些提示策略可以改善推荐性能。这一发现强调了将多样的提示和输入增强技术与大型语言模型相结合以提高个性化内容推荐能力的重要性。
Jul, 2023
我们提出了一种创新的端到端生成框架,用于多模态知识检索,通过利用大型语言模型 (LLMs) 作为虚拟知识库,使用对象感知的前缀调优技术来指导多粒度视觉学习,将多粒度视觉特征对齐到 LLM 的文本特征空间中,通过统一格式的指令数据构建模型训练,最后,我们提出了知识引导的生成策略,在解码步骤中施加先验约束,促进独特知识线索的生成,在三个基准测试中实验证明,与强基线方法相比,在所有评估指标上均取得了 3.0% 到 14.6% 的显著改进。
Jan, 2024