- MoVL: 探索预训练模型在医学图像任务中的领域自适应应用的融合策略
对于医学图像分类,本研究引入了视觉提示技术(VP)以填补输入医学图像与常规预训练视觉模型之间的差距,并通过设计包含分类损失和差异损失的联合学习损失函数来进行联合训练,命名为 MoVL(混合视觉提示和线性探测)。实验证明,MoVL 具有实现完 - QGFace: 基于质量指导的混合质量人脸识别联合训练
我们提出了一种新颖的质量引导联合训练方法,能够同时学习不同质量的图像,并基于质量分割,应用基于分类的方法学习高质量数据,以及应用自监督的图像 - 图像对比学习方法学习低质量图像。在多个数据集上的实验证明了我们提出的方法在识别不同质量的人脸图 - UFD-PRiME: 通过像素级刚体运动估计进行光流和立体深度的无监督联合学习
用联合训练的方式估计光流与视差,进而获取更精细的遮挡与物体边界,同时估计动态物体的刚体运动。
- PVUW Challenge 2023 比赛中的第三名解决方案:视频全景分割
为应对在野外进行视频全景分割任务,我们提出了一种强大的综合视频全景分割解决方案,通过将视频全景分割任务视为分割目标查询任务,利用神经网络提取的视频特征来预测分割掩码,同时添加了视频语义分割和视频实例分割等额外任务进行联合训练,提高了解决方案 - MultiModal-GPT: 一个视觉语言模型,用于人类对话
该研究提出了名为 MultiModal-GPT 的视觉与语言模型,可以利用证据和语言数据对多模式指令进行调整,为模型的不断对话提供支持,同时提出了联合培训的观点,并通过各种演示展示了 MultiModal-GPT 的连续对话能力。
- 英语 UD 的报告卡:UD Treebank 是否更加一致?
探讨在 UD 英语树库的数据整合方面的进展和重要性,发现虽然数据整合取得了一定的进展,但联合训练仍可能受到不一致性的影响,从而影响了其利用更大的训练数据池的能力。
- EMNLP联合训练是否真的有助于级联语音翻译?
本文讨论语音翻译中级联系统带来的挑战以及应对这些挑战的方法,研究表明,直接利用数据进行联合训练无法显著提高级联系统的性能,建议寻找其他有效的方法来提高语音翻译的效率。
- EMNLP带有外部知识的检索增强型视觉问答
我们提出了一种联合训练方案,该方案包括可微分的 DPR 集成答案生成,以便系统可以以端到端的方式进行训练。 我们的实验表明,我们的方案优于最近的具有强大 DPR 进行检索的 OK-VQA 系统。 我们还引入了新的诊断指标来分析检索和生成之间 - 利用人类反馈提升开放领域聊天机器人
本文提出了一种新颖高效的方法 Diamante 通过收集并利用两种人类反馈(包括显式示范和隐含偏好)来增强开放域聊天机器人,并介绍使用的生成 - 评估联合训练来增强与人类偏好的对齐,综合实验表明 Diamante 数据集和联合训练模式可以显 - WWW深度推荐算法中的合作式检索与排序模型
深度推荐系统在现代 Web 服务中得到广泛应用,然而传统的两阶段工作流存在协作限制,因此需要探索检索员和排名员之间的有效协作。
- 自然语言生成的联合生成器 - 排序学习
本文提出 JGR 算法作为一种新的联合训练机制,将生成器和排名器集成在一个单一的框架中,以解决现有方法中生成器和排名器分开训练的问题。JGR 算法利用一个混合目标优化生成器的训练,同时用对比损失训练排名器,并通过交替更新生成器和排名器来提高 - ACL自然语言处理中的多任务学习调查:关于任务相关性和训练方法
本文对近期自然语言处理领域中的多任务学习方法进行了调查,总结了两种基于任务相关性的多任务训练方法:联合训练和多步训练。文章对自然语言处理领域中几个下游应用案例进行了说明,总结了任务关系,并讨论了未来的研究方向。
- 论指代消解中的泛化
本研究提出了一种混合训练的方法,旨在解决针对不同领域的 8 个共指消解数据集在模型的零 - shot 迁移表现上存在的问题,并构建了一个新的数据集,取得了多个最先进的结果。
- 变分自编码器和潜在能量模型的联合训练
本文提出一种联合训练方法,从而学习变分自动编码器(VAE)和潜在基于能量模型(EBM)。该联合训练方法基于一个客观函数,其中包括三个关于潜空间和图像的共同分布的 Kulback-Leibler 分歧,从而无缝集成多样化和对抗性学习。实验表明 - Taskology: 任务关系的大规模利用
本文介绍一种基于一致性损失的计算机视觉多任务联合训练框架,充分利用多任务之间的内在关联性,实现对多个关联任务的同时训练及性能提升,并且减少数据标注的需求,支持无监督学习和模拟数据训练。测试结果表明,该框架在深度 / 法向量预测、语义分割、3 - 全源网络监督学习用于视频识别
OmniSource 是一个使用多种数据源和格式进行联合训练的框架,能够在没有人类标记的情况下从网上抓取 3.5M 的图片和 800K 分钟的视频,提高了在视频识别领域的表现。
- AAAI每一帧都很重要:视频分割和光流联合学习
提出一种新的框架以实现视频语义分割和光流估计的联合训练,通过联合训练利用视频中已标记和未标记的帧,使视频语义分割和光流估计更加稳健并在相应任务中表现优异。
- ICLR跨语言对齐与联合训练:比较研究和简单统一框架
本文研究了两种多语言文本学习方法,即 alignment 和 joint training,并提出了将这两种方法结合的框架。实验证明,该框架改善了现有方法的局限性,在 MUSE 双语词汇诱导(BLI)基准测试中性能优于现有方法,并在 CoN - 协同神经网络过滤器在推荐系统中的应用
本文提出了一种 J-NCF 方法,旨在通过深度特征学习和深度交互建模优化协同推荐效果,实验验证了其在模型性能方面的表现。
- ACL从双语到多语言神经机器翻译的增量训练
本研究提出了一种新的训练计划,基于联合训练和语言独立的编码器 / 解码器模块,使多语言神经机器翻译系统在不修改之前组件的情况下扩展到更多语言并实现零 - shot 翻译,在 WMT 任务中展现出接近最新技术的效果。