通过多任务学习,训练神经隐式表示以在重建、分类和语义分割任务上实现功能丰富的编码。
Jan, 2021
该研究提出了一种多任务学习的方法,将来自各种不同数据集的任务共享视觉语言表示。结果表明该方法在图像字幕检索、视觉问答和视觉定位方面比先前的单任务学习方法表现更好,同时通过可视化注意力图分析了学习到的分层表示。
Dec, 2018
本研究提出了 TAMiL 方法,应用任务注意模块和自动编码器捕捉共同表示空间中的任务特定信息,并在全局工作区中保留任务相关信息以缓解灾难性遗忘现象。实验结果表明,该方法优于现有基于重新玩彩和动态稀疏方法的连续学习方法。
Feb, 2023
通过单例学习和分层绑定等方式,预测处理系统可灵活地在新情景中广泛推广,并使用感知价值预测来实施多个生存和复制策略,且这种系统所感知的 “有意识的体验” 是其自身功能的感知表示,从而解决了 “意识元问题”
Jan, 2023
该研究审查了通过提出分类法来将人类可理解的概念与神经网络中的内部表示相对应的研究,并发现了与模型可解释性目标有关的文学研究中的歧义,即是理解机器学习模型还是在部署领域有用的可行解释。
Dec, 2022
本文提出了一种基于伪核的新工具,用于分析和预测网络学习到的表示,通过验证其在简单测试案例上的使用,本文论证了该方法可预测权重初始化和训练计划对表示学习和下游并发多任务执行表现的影响。
Jul, 2023
基于视觉基础的言语知觉模型,使用多层循环高速公路网络对时间性建模,能够从输入信号中提取形式和基于含义的语言学知识,并分析了训练模型不同组件使用的表示方式。在表示层次结构的上升过程中,语义方面的编码越来越丰富,而语言输入中形式相关方面的编码在初始增加后呈现平稳或下降的趋势。
Feb, 2017
探讨了深度神经网络能否学习到通用的图像表示,并提出一种名为 MultiNet 的新模型,在共享特征的基础上,通过在共同的表征中相互交互来整合各个任务的解决方案,实现了在标准基准测试中提高各个任务性能的目的。
Jun, 2016
本文提出了一个结合多模态学习嵌入与持续学习的框架,研究了新任务导致了的困扰与不同因素造成的遗忘,发现索引阶段对任务效果有显著影响,并提出缓解遗忘的工具。在两个图像 - 文本检索数据集中证明了我们的方法的显著提高。
Apr, 2021
这篇论文研究了一项名为统一感知分析的新任务,通过开发 UPerNet 多任务框架和一种训练策略来实现从给定图像中识别尽可能多的视觉概念,最后在自然场景中应用训练网络来发现视觉知识。
Jul, 2018