使用视觉属性的合作式学习
本文提出一种基于协同语义推理(CSI)的框架,通过人机视觉交互设计,实现人与算法的可视化协同,揭示深度学习模型的推理过程,从而使用户能够理解和控制模型的部分推理过程,其应用于文档摘要系统的案例研究表明了其可行性。
Jul, 2019
本文通过引入多智能体训练框架,提出交互式学习作为一种替代奖励或演示驱动学习的方法,并通过一系列实验展示了信息共享、信息查询和问答等交互学习行为的出现,最终发现该方法可以使得自主智能体在不需要显式演示或奖励函数的情况下,与人类合作执行任务并获得更好表现的能力。
Jun, 2019
本文提出了一种新型的无监督视觉基础框架,使用概念学习作为代理任务来获得自我监督,以鼓励模型定位和解释语义属性,在多项实验中,该方法在图像本体库、ReferItGame 数据集上分别提升了 5.6% 和 5.8%,在 Flickr30k 数据集上达到了与最先进的表现相媲美的水平。
Mar, 2018
本文提出了一种去中心化的协作感知方法,基于 Deep Reinforcement Learning 算法,学习一种反向通讯策略,只请求未知信息,最终实现交通物品的最大化感知和最小化信息交流成本的平衡调整。
Dec, 2022
本研究探讨了多智能体协作在视觉丰富的环境中的视觉学习问题,实现了在 AI2-THOR 中从像素级开始学习协作任务,并展示了显式和隐式通信对于实现视觉任务的好处。
Apr, 2019
本文研究了基于深度学习的车辆感知中 “合作感知” 环节中由于通信质量差而带来的性能损失,并提出了一种新颖的方法,利用 “LC-aware Repair Network” 和 “V2V Attention Module” 来增强车辆之间的互动,并在公共数据集 OPV2V 上进行了广泛实验,展示了在 “失真 V2V 通信” 环境下提高识别性能的有效性。
Dec, 2022
通过在 Baxter 平台上对对象进行推动、捅戳、抓取和观察等四种不同类型的物理交互来提供学习视觉表示的有效监督,本文使用共享的 ConvNet 体系结构学习了视觉表示,并通过观察神经元活化和最近邻检索来展示所学习的表示的质量,从而在图像分类任务中显示出与学习外部数据相比的改进,在实例检索任务中,本文的网络在回忆率 @1 上比 ImageNet 网络高 3%
Apr, 2016
通过深度学习使自主系统能够在感知的亚符号方式下逐渐理解对象及其环境,执行对象检测、传感器数据融合和语言理解任务。为了实现强大的人工智能,我们需要考虑人类提供的显式教学和通过观察人类行为获得的隐式教学,同时设计多模态输入和输出能力的系统以支持隐式和显式交互模型。我们提出了几个假设和设计指南,并通过相关工作的一个用例来实现这个目标。
Sep, 2023