- 智能体生成对话中的说话人验证
最近大型语言模型的成功引起了广泛关注,发展适应不同说话者特征和风格的角色扮演对话代理人以增强其执行一般和特殊目的对话任务的能力,然而,个性化生成话语的能力,无论是由人类还是大型语言模型进行,尚未得到很好的研究。为了填补这一差距,我们的研究引 - 联合提示学习中通用化与个性化的协调
通过使用预先训练的视觉语言模型(VLM)调整提示,联邦提示学习(FPL)将大规模预训练的视觉语言模型(VLM)整合到联邦学习中,以达到在个性化和泛化之间取得平衡的目标。
- 加速个性化自动换道进化通过课程学习
个性化驾驶辅助系统的在线进化能力是确保用户偏好匹配必不可少的。本文提出了一种以驾驶员接管干预为基础的课程学习方法,通过利用在线的接管数据生成驾驶区域,采用高斯判别分析确保被感知的安全性,通过学徒学习实时对轨迹规划回报进行纠正,利用模型预测控 - GPT 能力驱动的网络安全培训:有效意识的个性化方法
本研究探讨了传统网络安全意识培训计划的局限性,并提出了一种创新解决方案,使用生成型预训练转换器 (GPT) 来解决这些问题。该研究将 GPT 模型与自然语言处理能力相结合,根据个体培训者的个人资料个性化定制培训模块,从而提供高度个性化和动态 - pFedAFM:异构联邦学习中基于批次的个性化自适应特征混合
基于模型异构的个性化联邦学习通过自适应特征混合(pFedAFM)实现了训练不同结构个性化模型的联邦学习客户端,以应对非独立同分布的本地数据。
- LLM-Personalize: 通过强化自我训练使 LLM 规划器与人类偏好保持一致的家务机器人
通过优化流程,个性化 LLM 规划器以适应个体用户偏好,大幅提高与人类偏好的一致性。
- 利用预测的潜在人格维度进行反事实推理,以优化说服结果
使用双向生成对抗网络(BiCoGAN)结合基于对话的人格预测回归模型(DPPR)的方法,追踪用户的潜在人格维度(LPDs),并生成基于这些 LPDs 的定制的反事实话语,优化整体说服结果。在在线交互中,通过使用 D3QN 模型学习优化系统话 - MoA: 个性化图像生成中的主题 - 上下文分离的注意力混合
我们提出了一种新的用于个性化文本到图像扩散模型的架构,称为混合关注机制(MoA)。MoA 通过将生成工作负载分配给个性化分支和非个性化先验分支两个注意力路径来分布生成负载。
- 学徒导师生成器:一个用户创建和个性化智能导师的平台
Intelligent tutoring systems can be complex and time-consuming to develop, but the Apprentice Tutor Builder simplifies t - 阿波罗尼奥:以个人资料为中心的对话代理
该研究提出一种框架,将用户个性化纳入对话代理中,通过分析和组织用户的查询和响应形成结构化用户资料,以提供个性化和更精确的响应,并提出了一系列评估协议来衡量个性化程度。
- CVPR个性化视频视线估计的时空注意力和高斯过程
使用深度学习模型和专门的注意力模块,通过视频实现准确的注视方向预测,并且通过个性化处理和少量样本获得更高的精度。
- 通过细分和双重绑定实现任何艺术风格的文本到图像合成
该研究论文介绍了一种名为 Single-StyleForge 的新方法,用于将预训练的文本到图像扩散模型进行个性化训练,从文本提示中生成指定风格的多样化图像。此外,研究还提出了一种名为 Multi-StyleForge 的改进方法,通过学习 - 基于编码器的文本到图像个性化的 LCM-Lookahead
通过使用快速采样方法以及对编码器进行个性化训练,本研究探索了将快速采样方法用于文本到图像模型个性化,并通过预测身份目标让模型在保持多样性和对齐性的同时提高身份准确性的潜力。同时,研究还发现注意力共享机制和一致的数据生成对于编码器训练都有益处 - 针对少样本个性化实例识别的对象条件下实例集
现在,用户要求视觉系统的个性化增强,能够从少样本数据集中识别和定位个人实例对象(例如,我的狗而不是狗)。本文构建了基于多阶统计的 Object-conditioned Bag of Instances (OBoI) 模型,通过扩展通用对象检 - 针对资源受限设备的低能耗自适应个性化
面向物联网应用的数据漂移个性化机器学习模型在能源成本方面依然存在挑战,为此提出了适用于资源受限设备的低能耗个性化框架 Target Block Fine-Tuning (TBFT)。通过对输入级、特征级和输出级的细分,分别对模型的前端、中间 - 图像合成个性化的生成式主动学习
该研究提出了一项旨在将传统上应用于判别模型背景下的主动学习方法应用于生成模型的试点研究,重点关注图像合成个性化任务。通过引入锚定方向的概念,将查询过程转化为半开放问题,并提出了一种基于方向的不确定性采样策略来实现生成式主动学习并解决开发 - - MyVLM: 为用户特定查询个性化 VLM
对于个性化视觉 - 语言模型,我们探索了增加外部概念头和中间特征空间中的概念嵌入来实现对用户提供的概念的识别和自然整合,并将其应用于个性化图像字幕生成和个性化视觉问答,结果表明模型可以推广到学习概念的未见图像,并保持在无关输入上的模型行为。
- 墨水与个性:在 LLM 时代打造个性化叙事
个性化与个性化组成了使每个作者独特的特征,影响他们的文字以有效地吸引读者并传达真实性。然而,我们对基于 LLM 的写作助手的依赖日益增长,却可能在时间上妥协了我们的创造力和个性。本研究通过进行简要调查,以探索不同观点和概念,并尝试理解人们的 - OMG: 扩散模型中的遮挡友好型个性化多概念生成
个性化是文本到图像生成中的重要主题,尤其是具有挑战性的多概念个性化。本文提出了一种名为 OMG 的遮挡友好型个性化生成框架,旨在在单个图像中无缝集成多个概念,解决身份保留、遮挡和前景与背景的和谐性问题。通过提出的两阶段采样解决方案,OMG - ICLR面向统一的多模式个性化:基于大型视觉语言模型的生成式推荐及其延伸
UniMP 是一种统一的多模式个性化系统的范式,通过使用多模态数据并消除任务和模态特定定制的复杂性,充分发挥了基础生成模型的灵活性和效力,以实现广泛的个性化需求,包括物品推荐、产品搜索、偏好预测、解释生成和用户引导的图像生成。