预训练语言变换器是通用图像分类器
本研究探究了预先在自然语言处理上训练的 transformer 模型是否可以在最小化调整下进行泛化以适用于其他模式,并研究其在数字计算、视觉和蛋白质折叠预测等序列分类任务上的优化性能。结果表明,预训练模型对非语言下游任务的性能和计算效率都有积极作用。
Mar, 2021
通过使用预先在自然语言或图像数据上进行训练的 Transformer 模型,并通过最小修改进行微调,我们在时序预测任务上评估了 Frozen Pretrained Transformer (FPT) 的效果,并发现其性能在跨模态时序预测任务中可以与同模态微调相媲美甚至处于最前沿状态。
Feb, 2023
本论文主要研究了低层级计算机视觉任务(如去噪、超分辨率和去雨等),并开发了一种新的预训练模型 —— 图像处理变压器(IPT),通过 ImageNet 基准测试产生大量的损坏图像对,训练 IPT 模型并成功地在不同的图像处理任务上产生了良好的结果。
Dec, 2020
VL-GPT 是一种同时感知和生成视觉和语言数据的变压器模型,通过采用直观的自回归目标,实现了图像和文本两种模态的统一预训练方法,从而使模型可以像处理文本一样无缝地处理图像和文本。预训练完成后,VL-GPT 在包括图像字幕生成、视觉问答、文本到图像生成等多样的视觉和语言理解以及生成任务中表现出了令人瞩目的零样本和少样本性能。
Dec, 2023
本文研究了不同类型的基于 Transformer 的预训练模型(如 GPT-2,BERT 和 BART),并探索了在数据增强方面,如何在文本序列之前添加类标签提供了一种简单而有效的条件方法,预先训练的 Seq2Seq 模型在低资源环境下胜过了其他数据增强方法,在数据分布和类标签信息保存方面也进行了探讨。
Mar, 2020
本文提出了一种基于 Transformer 的深度学习网络,名为 BrainNPT,用于脑功能网络分类,并探讨了使用未标记数据进行预训练的方法,结果表明使用预训练的 BrainNPT 模型可以显著提高分类表现。
May, 2023
利用预训练模型并引入自定义适配器优化预训练的 transformer 模型用于时间序列分析,在多个任务中取得了卓越的性能,尤其是通过适配器微调进一步提升了性能,超过了专门用于特定任务的模型。
Nov, 2023
本文介绍了 D-iGPT,这是对 image-GPT 进行改进的一种方法,通过将预测目标从原始像素转移到语义标记上,实现对视觉内容的更高级理解,并通过预测可见标记来补充自回归建模,实现了更好的效果。实验证明,D-iGPT 在 ImageNet-1K 数据集上取得了令人瞩目的成绩,并在下游任务中表现出较强的泛化能力和在分布外样本上的鲁棒性。
Dec, 2023
本研究提出了一种新的方法(称为 GPT4MIA),利用生成预训练变压器(GPT)作为医学图像分析(MIA)的即插即用传递推理工具,在理论分析上,我们开发了多个技术处理,以提高 GPT4MIA 的效率和有效性,包括更好的提示结构设计、样本选择和代表性样本 / 特征的提示排序,并提供了两个具体的用例(带工作流程),以在与图像分类的成熟模型(例如 ResNet)协同工作的情况下检测预测错误并提高预测准确度。
Feb, 2023
本文研究了利用 Transformer 模型的注意机制为下游任务生成半导体行业中的故障分析三元组(FATs)。发现使用 1.5B 参数进行训练的 GPT2 模型在 ROUGE 上的表现显著优于 BERT、BART 和 GPT3 等其他 Transformer 模型,在人类评估和结构化 FAT 数据方面引入了 Levenshstein 顺序评估度量(LESE)。
Oct, 2022