异质人类中心任务间不相交的多任务学习
本文提出了一种基于分布匹配的方法,将多个任务进行弱监督的共同训练,建立了第一个全面学习面部行为的框架 FaceBehaviorNet,并利用该框架进行了零 / 少样本学习,实现了好于现有方法的效果。
May, 2021
该研究提出了一种多任务学习的方法,将来自各种不同数据集的任务共享视觉语言表示。结果表明该方法在图像字幕检索、视觉问答和视觉定位方面比先前的单任务学习方法表现更好,同时通过可视化注意力图分析了学习到的分层表示。
Dec, 2018
介绍了 LEMA 数据集,通过密集注释原子动作和人 - 物互动,为日常活动的组成性,调度性和分配性提供了地面真实性,进一步设计了具有基线模型的具有挑战性的组成动作识别和动作 / 任务预测基准,旨在推动机器视觉社区研究真实世界中的人类目标导向活动和任务调度和分配。
Jul, 2020
本研究提出了一种多任务学习框架,能够同时从单眼彩色图像中估算二维或三维的人体姿态并分类人体动作。通过参数共享与关键预测部分解耦等技术,该框架能有效地处理静态图像和视频剪辑,实现了 100 帧以上的速度,并在四个数据集上显著提高了预测能力。
Dec, 2019
本文介绍了利用自然语言任务进行协作的实体代理模型,发展出了可扩展的数据收集工具,并采集了互动立足语言理解的第一个数据集,以便进一步研究机器模拟人类智能适应新任务与环境的能力。
Nov, 2022
本文提出了一个可适用于多种应用场景的人体动作识别框架,包含多形式人体检测和对应动作分类两个模块。其中,通过构建开源数据集来训练多形式人体检测模型,从而识别人的整体、上半身或部分身体,并采用动作分类模型来识别跌倒、睡觉等动作。实验结果表明,该框架对于各种应用场景都是有效的,是一种新的面向应用的人体动作识别 AI 范式。
Sep, 2022
本文提出通过使用自然语言指令和行动轨迹演示来自动分解分层任务,以解决在稀疏奖励的强化学习设置中的复杂多任务问题,并证明人类演示有助于解决最复杂的任务,同时允许该模型再未见数据的情况下推广学习,从而使训练好的代理人具有可解释的行为。
Nov, 2020
通过一项大规模众包研究,本文揭示和量化了通过图像分类任务来人与计算机理解背景的分歧,并回答了哪些复杂机器学习模型更接近于人类使用特征以进行准确预测,任务的难度如何影响机器选择特征的能力,并与人类相比,人类是否一致更擅长选择使图像识别更精确的特征。以上发现对于人机协作具有重要的意义,考虑到人工智能领域的长期目标是使机器能够像人类一样学习和推理。
Jan, 2021
本文提出了一种多任务框架,用于联合解决静态图像的二维和三维姿势估计及视频序列的人类动作识别问题。实现了端到端优化,与传统分开学习相比准确率显著提高,报告了使用该方法对 MPII、Human3.6M、Penn Action 和 NTU 四个数据集的测试结果,证明了其在目标任务上的有效性。
Feb, 2018