Jun, 2023

基于 Transformer 的 UNet 结构,采用多头交叉注意力跳跃连接以消除扫描文档中的伪影

TL;DR本研究使用修改后的 UNet 结构和 Swin Transformer Backbone 移除扫描文档中的典型画面伪影和压缩失真等文档中的 Artifacts,通过多头交叉关注跳过连接实现更具选择性地学习抽象级别。模型的性能在压缩误差、画素化及噪音方面得到了改进,合成数据的误差率降低了 53.9%,并可轻松适应新的有损伪影。