文本检测变形金刚
TextFormer 提出了一种使用 Transformer 架构实现的查询式端到端文本定位算法,采用多任务建模的联合语义理解,并通过自适应全局聚合模块处理任意形状的文本,通过弱监督和全标注的语料库信息提升检测和端到端文本定位结果,实现了在双语数据集上的显著优势。
Jun, 2023
本研究基于 Transformer 序列建模,提出了一个简单而有效的端到端视频文本识别框架 TransDETR,它能够同时处理文本检测、跟踪和识别,通过两个主要优点:1) 在长序列中使用文本查询跟踪和识别每个文本,2) 在四个视频文本数据集上验证 TransDETR 具有最先进的性能,其中视频文本识别任务性能提高了 8.0%左右。
Mar, 2022
本文提出了一种使用 transformer encoding 的新型端到端场景文本识别框架,并通过一种新的识别转换机制,在不需要额外的矫正模块或字符级别注释的情况下显式地引导文本定位,从而使该方法在多种数据集上显著优于现有方法。
Mar, 2022
介绍一种基于 transformer 的文本定位方法 TextTranSpotter (TTS),该方法可以在全监督和弱监督的情况下训练,并使用基于 Hungarian loss 的新型损失函数,不需要昂贵的本地化注释,通过每个单词检测学习单一潜在表示,实现了与先前最先进的全监督方法相当的性能。
Feb, 2022
提出了一种新的场景文本识别方法,使用单点标注替代昂贵的边界框标注,将场景文本定位和识别视为序列预测任务,并使用自回归 Transformer 模型预测序列,可达到最先进的识别效果。
Dec, 2021
基于显式协同的文本识别 Transformer 框架 (ESTextSpotter) 在文本检测和识别中,通过建模区分性和交互特征,明显提高了性能。
Aug, 2023
本文提出了一种名为 Text Perceptron 的端到端可训练文本检测方法,利用基于分割的高效检测器和新颖的形状变换模块,实现了文本检测和识别部分的全局优化,取得了在多个基准测试数据集上的优异性能表现。
Feb, 2020
本文提出了 SPTS v2 框架,采用单点注释作为代替传统文本检测与识别的昂贵手工注释方法。采用基于自回归 Transformer 的 IAD 对同一预测序列内所有文本实例的中心点进行预测,采用 PRD 进行文本识别。详细实验结果证明该方法可超越现有单点文本定位器的性能而实现 14 倍更快的推断速度。同时,实验还进一步展示了单点注释比非点注释和多边形边界框更为适合场景文本识别。
Jan, 2023
本论文提出了一种基于 transformer 的简单但极其有效的场景文本识别方法,只需要空间注意力而不需要矫正图像,仅使用卷积特征图作为单词嵌入输入到 transformer 中,并在大规模实验中取得了显著的优越性能。
Mar, 2020