- 蛋白质突变影响预测的多级交互建模
通过自我监督的多层预训练框架 ProMIM,全面捕获三个层级的蛋白质相互作用,该框架在标准基准测试中表现优异,特别是在可能导致蛋白质背骨构象显著变化的突变上,还能进行零样本评估,显示了其作为新一代强大的药物开发工具在 SARS-CoV-2 - CVPR构建通用 3D 大规模感知强预训练基准
通过构建一个 CSC 框架,我们综合使用视觉基础模型提供的语义线索和多模态信息的知识丰富的跨场景原型,实现了一种具有各种下游任务的更少微调工作量的通用 3D 预训练模型。
- 文本的双模态:视觉和文本生成预训练
对于像素级语言模型,本论文介绍了一种新颖的预训练框架,通过在超过 4 亿个文档渲染的 RGB 图像上预训练,采用双模态训练方案,结合视觉数据和文本数据,通过下一个块预测和分类头预测进行训练,并展示了将视觉和文本数据结合的潜力及有效性。
- CVPRSwitchLight: 基於物理驅動架構和預訓練框架的人物肖像輝光共設計
引入一种协同设计方法,用于人像重照,将物理引导的架构与预训练框架相结合。通过基于 Cook-Torrance 反射模型的精心配置的架构设计,准确模拟光 - 表面相互作用。此外,为了克服高质量光台数据稀缺的限制,我们开发了一种自监督预训练策略 - SNP-S3: 共享网络预训练和显著语义增强用于多种视频文本任务
我们提出了一种通过直接在原始数据上进行预训练以促进各种下游视频文本任务的跨模态视频表示学习框架,并在预训练框架和代理任务方面做出了主要贡献。
- xTrimoPGLM: 语言解码的统一百亿级预训练变压器
通过创新的预训练框架,提出了一个统一的蛋白质语言模型 xTrimoPGLM,能够同时处理蛋白质理解和生成任务,拥有超过 1000 亿个参数和 1 万亿个训练标记的前所未有的规模。在 18 个蛋白质理解基准测试中,xTrimoPGLM 明显优 - EMNLPHi-ArG: 在语言预训练中探索层次论证图的整合
本文提出了一种新的结构用于组织论证,并介绍了两种方法来利用该结构,包括一种多模态模型 GreaseArG 和一个新的注入图信息的预训练框架。实验证明,在进一步的预训练和微调之后,GreaseArG 在两个论证任务上超过了同等规模的语言模型, - 启发式视觉预训练的自监督和有监督多任务学习
提出了一个结合自监督学习和监督学习的多任务预训练框架,用于识别多种视觉任务,结果表明该模型能够达到或超过多个视觉任务的最先进结果的能力。
- 蛋白质 - 配体结合亲和力预测的多任务生物测定预训练
本文提出了多任务生物测定预训练框架 (MBP),该模型结合蛋白质 - 配体复合物的三维结构作为输入来预测蛋白质 - 配体结合亲和力,利用 ChEMBL-Dock 数据集对不同亲和力标签的预测进行多任务预训练,并且分类了相对排名是否来自同一生 - Occ-BEV: 通过三维场景重建实现多摄像机联合预训练
通过设计 3D 解码器来利用多视图图像的鸟瞰图(BEV)特征预测 3D 场景的占位情况,为多摄像头智能驾驶提供了一种先进的、可行的和经济高效的解决方案,并取得了显着提升的结果。
- PTGB:面向脑网络分析的预训练图神经网络
本研究提出了一种针对大规模脑网络数据的 GNN 预训练框架 PTGB,能在没有特定任务标签的情况下学习脑网络的内在结构,并易于适应各种下游任务,从而实现对脑网络结构复杂性的自适应处理及临床神经疾病诊断的快速准确。
- ACL预训练语言模型作为多角度课程学习者
本文针对 ELECTRA 预训练生成器与判别器训练时出现的单调训练和交互不足的问题,提出了一种多角度课程学习(MCL)算法。该算法通过将 MLM 缺点和标注标签平衡考虑在内的三个自监督课程设计,解决了单调训练和标签不平衡等问题。由于判别器与 - EMNLPMGDoc: 多粒度分层预训练用于文档图像理解
我们提出了一个名为 MGDoc 的新的多模态、多粒度预训练框架,通过使用统一的文本 - 视觉编码器来获得不同粒度的多模态特征,以便把多个粒度的特征投影到相同的超空间中,并设计了跨粒度的注意机制和特定的预训练任务来建模区域和单词之间的关系,并 - EMNLPFaD-VLP: 面向统一检索和说明的时尚视觉语言预训练
提出了一个基于三元组生成的时尚特定预训练框架和可同时执行时尚检索和字幕任务的灵活解码器模型设计,具有跨模态检索、图像检索、图像字幕和多模态分类等多种功能。
- ICLR视觉增强语言建模
提出了一种名为 VaLM 的预训练框架,对语言建模进行视觉增强,通过图像检索模块检索相应图像,使用视觉知识融合层使多模态语言建模可以参考文本和图像的视觉知识,并在需要的情况下获取相关联的图片,通过对各种视觉知识密集型的常识推理任务的评估,展 - CVPRSelfDoc: 自我监督文件表示学习
SelfDoc 是一个文档图像理解的任务无关的预训练框架,利用文档的位置、文本和视觉信息,并建模内容块之间的上下文关系,提出了一种新的跨模态学习模型,优于现有模型,同时具有自适应的视觉语言融合机制并应用自监督模型预训练,与以前作品相比,使用 - EMNLP从语境还是名称学习?神经关系抽取的实证研究
本文研究神经模型在关系抽取(RE)任务中的表现,并提出了一种基于实体掩码对比预训练框架,旨在深入理解文本上下文和类型信息,同时避免了对命名实体的机械记忆或表浅提示的使用。实验证明,该框架可以提高不同情况下的神经模型的效果和鲁棒性。
- 预训练图神经网络用于通用结构特征提取
本文提出一种预训练框架,使用合成图纹理来获取通用图结构信息,提高了已训练模型在不同下游任务上的性能。