- ACLCoSe-Co: 文本条件生成通用常识上下文
提出了一种基于符号知识图谱的预训练语言模型生成任务相关信息的 CommonSense Contextualizer (CoSe-Co) 模型,该模型结合句子作为输入文本的上下文信息,以构建一种新的数据集用于训练 CoSe-Co 模型,并在多 - 生成还是对比?短语重构用于优化句子表示学习
通过短语重构提出一种新的生成式自监督学习方法,其产生的句子表示在句子文本相似性方面表现与对比式方法相当。
- ICCV利用联合嵌入空间进行广义零样本语义分割
本文提出了一种基于边界感知回归和语义一致性损失实现零样本语义分割任务的方法,并将其与 Apollonius 校准技术相结合,提高了分类器的泛化性能。实验结果表明该方法在标准数据集上实现了最先进的性能表现。
- 图上自监督学习:对比、生成或预测
本文介绍了在图形数据上进行自监督学习的方法,并将其分为对比、生成和预测三种类型,同时对常用数据集、指标、算法进行了总结,并讨论了未来研究方向。
- MM正则化生成对抗网络
提出一个基于对抗生成网络的新模型 RegGAN,该模型可以在生成样本的同时训练三个网络 —— 一个生成器和两个判别器,以便从与训练集概率分布不同的概率分布中生成样本,并可用于学习拓扑学中的某些先验概念。
- 逐层数据无关 CNN 压缩
本文介绍了一种基于预先训练网络的数据自由网络压缩方法,该方法采用分层压缩技术、量化和修剪技术,能够实现高精度、高效率的对神经网络进行压缩,还能与高效的数据生成方法相结合以更进一步提高压缩结果。
- 使用预训练语言模型进行关键短语预测
通过将关键短语预测分为现有关键短语提取与不存在关键短语生成两个子任务,并提出使用 BERT 在这两个子任务中实现联合推论的方法,本研究提供了一种全面利用提取和生成方法各自优势的方法,并在基准数据集上实现了最新的预测结果。
- ACL利用头修饰符模板确保深度类型描述生成中的可读性和数据保真度
本文提出了基于头修饰模板的方法来生成实体类型的简洁描述,并提供了新的数据集和自动评估指标,实验结果表明与基线模型相比,该方法在提高可读性的同时,实现了最先进的性能。
- 多视角表示学习调查
本文介绍了多视图表示学习中的两个类别:多视图表示对齐和多视图表示融合,并从多个角度回顾了代表性的方法和理论,进而调查了多视图表示学习的发展。最终,探讨了多视图表示学习的几个重要应用,并旨在为研究人员提供深入的理论基础和最新的发展。