Mar, 2022

LILE: 使用 Transformer 的双重注意力网络进行组织病理学资料检索前深入查看

TL;DR提出了一种使用自注意力作为额外损失项的新架构,以在联合潜在空间中表示图像和文本;在 MS-COCO 和 ARCH 两个基准数据集上进行的实验结果表明,该方法具有很好的效果。