点击下方卡片,关注“CVer”公众号
AI/CV重磅干货,第一时间送达
转载自:CVHub
UNETR++: Delving into Efficient and Accurate 3D Medical Image Segmentation
论文链接:
https://arxiv.org/abs/2212.04497

代码链接:

https://github.com/Amshaker/unetr_plus_plus

导读

这篇论文主要讲述了一种名为 UNETR++ 的 3D 医学图像分割方法,它提供了高质量的分割结果,并具有高效的参数和计算成本。作者介绍了一种新的有效的配对注意力(EPA)模块,该模块使用一对基于空间和通道注意的相互依赖分支来有效地学习空间和通道方向的区分性特征。实验结果表明,该方法在 Synapse、BTCV 和 ACDC 数据集上均优于现有方法。

背景

3D 分割是医学图像中的一个基础问题,并且用于许多应用,包括肿瘤识别和器官定位等诊断目的。3D 分割任务通常采用 U-Net 类似的编码器-解码器架构,其中编码器生成 3D 图像的分层低维表示,解码器将这个学习的表示映射到体素分割。早期的基于 CNN 的方法在编码器和解码器中分别使用卷积和反卷积,但很难实现准确的分割结果,可能是由于其局限的局部感受野。另一方面,基于 transformer 的方法天生是全局的,并且最近已经证明了具有竞争性能的成本,但模型复杂度增加。这篇论文提出了一种混合架构来结合局部卷积和全局注意力的优点。作者指出,这种架构能够在提高分割精度的同时减小模型的参数数量和 FLOPs,提高模型的鲁棒性。作者认为,这种方法的优势在于它捕捉了空间和通道特征之间的显式依赖关系,从而提高了分割质量。
UNETR++是一种新型的3D医学图像分割混合层次架构,旨在提高分割准确度和效率。它是在UNET的基础上提出的一种改进模型,通过引入精细化模块和跨层连接来增强特征表示能力,并通过尺度匹配和跨层金字塔来减少模型参数和计算复杂度。经过实验验证,UNETR++在主流数据集上的分割准确度和效率都优于其他现有模型。UNETR++基于最近提出的UNETR框架,引入了一种新的有效的配对注意力(EPA)模块通过在两个分支中应用空间注意力和通道注意力,有效地捕捉了丰富的相互依存的空间和通道特征。我们的EPA中的空间注意力将key和value投影到固定的较低维空间,self attention的计算与input token的数量成线性关系。这有助于提高模型的特征表示能力,同时又不会增加太多的参数和计算复杂度。另一方面,我们的通道注意力通过在通道维度上对query和key执行点积运算,强调了通道特征映射之间的依赖性。此外,为了捕捉空间和通道特征之间的强相关性,query和key的权重在两个分支之间共享,这也有助于控制网络参数的数量。相比之下,值的权重是独立的,以强制在两个分支中学习互补特征。这种设计能够有效地平衡两个分支的贡献,提高模型的性能。

Method

上图展示了UNETR++模型的层级编解码结构。
  • 动机: 在设计混合框架时要考虑的两个理想属性:效率和准确性。这两个属性都非常重要,因为它们可以帮助框架在实际应用中更好地发挥作用。在设计混合框架时,应该尽量将这两个属性结合起来,以达到更好的性能。
  • 有效的全局注意力: 现有混合方法中使用的自注意力操作复杂度为平方,并且在体积医学分割中具有较高的计算代价。与这些方法不同,作者认为,在特征通道而不是体积维度上计算自注意力可以将复杂度从平方降低到线性。此外,空间注意力信息可以通过将key和query空间矩阵投影到较低维空间中来有效地学习。这种方法可以在保证性能的同时减少计算复杂度,从而更好地处理大型体积数据。
  • 增强空间和通道特征表示: 大多数现有的体积医学图像分割方法通常通过注意力计算来捕获空间特征,并忽略了通道信息。有效地结合空间维度中的交互作用和通道特征之间的相互依赖关系,有望提供丰富的上下文空间通道特征表示,从而提高掩模预测的准确性。通过这种方式,算法可以更好地利用通道信息来捕获更丰富的空间信息,从而提高分割精度。
本文提出了一种UNETR++框架,旨在更有效地学习空间信道特征表示。为了实现这一目标,这篇论文中提出了一种新的EPA模块,它包含两个注意力模块,通过共享key-query方案来有效地在空间和通道维度上编码信息。该论文还提出了在编码阶段和解码阶段之间通过跳过连接来连接的方法,以便在不同的分辨率上合并输出。这有助于恢复在下采样操作期间丢失的空间信息,从而预测更精确的输出。与编码器类似,解码器由四个阶段组成,每个阶段都包含一个使用反卷积来增加特征图分辨率的上采样层,然后是 EPA 模块(除了最后一个解码器)。在每两个解码器阶段之间,通道数减少了一倍。因此,最后一个解码器的输出与卷积特征图融合,以恢复空间信息并增强特征表示。然后将得到的输出输入 3×3×3 和 1×1×1 卷积块,生成体素方面的最终掩码预测。
接下来是 EPA 模块的介绍。EPA 模块执行高效的全局注意力,有效地捕获丰富的空间-通道特征表示。EPA 模块包括空间注意力和通道注意力模块。空间注意力模块将自我关注的复杂度从二次降低到线性。另一方面,通道注意力模块有效地学习通道特征图之间的相互依赖性。EPA 模块基于两个注意力模块之间的共享key和query方案,以便互相信息交流,以生成更好、更高效的特征表示。这可能是因为通过共享key和query来学习互补特征,但使用不同的值层。

实验

在abdominal multi-organ Synapse dataset中,对比SOTA模型,UNETR++仅用了其1/3的参数量和1/4的计算量取得了最高的精度。
在多器官分割的BTCV测试集中,UNETR++的综合精度比SOTA模型高出1.5%以上。
在ACDC数据集中,UNETR++的综合精度比SOTA模型高出0.2%以上。
将EPA模块分别应用在编码器和解码器的精度提升。

效果展示

可以很清晰地观察到,无论是小体积还是粘连等复杂场景,UNETR++都能略胜一筹。

局限性

本文所提出的UNETR++在三种医学图像分割数据集上均以更少的模型复杂度获得了更高的分割精度,超越了目前所有的医学图像分割SOTA模型。然而,在对于以下两种情况:器官形状模糊以及器官边界不明显,UNETR++也无法很好的分割。这是由于这些困难场景样本远少于正常场景样本,导致模型无法很好地关注到困难样本特征。未来,作者将会在数据预处理阶段使用特定的几何数据增强技术来对这些困难场景进行针对性的优化。

总结

  1. 本文提出了一种用于3D医学图象分割的分层方法:UNETR++。通过引入有效的配对注意力(EPA)模块,UNETR++能够丰富空间和通道之间相关依赖的特征
  2. 在配对注意力(EPA)模块中,共享query和key的映射函数权重能够使得空间和通道分支进行更高效地交流特征信息,这可以为双方提供互补的有益特征并且降低参数量。
  3. UNETR++在三个国际著名医学图象分割数据集中均以更少的模型复杂度取得最更高的精度结果
点击进入—>CV微信技术交流群
CVPR/ECCV 2022论文和代码下载
后台回复:CVPR2022,即可下载CVPR 2022论文和代码开源的论文合集
后台回复:ECCV2022,即可下载ECCV 2022论文和代码开源的论文合集
后台回复:Transformer综述,即可下载最新的3篇Transformer综述PDF
医疗影像交流群成立
扫描下方二维码,或者添加微信:CVer222,即可添加CVer小助手微信,便可申请加入CVer-医疗影像微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer等。
一定要备注:研究方向+地点+学校/公司+昵称(如医疗影像+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群
▲扫码或加微信号: CVer222,进交流群
CVer学术交流群(知识星球)来了!想要了解最新最快最好的CV/DL/ML论文速递、优质开源项目、学习教程和实战训练等资料,欢迎扫描下方二维码,加入CVer学术交流群,已汇集数千人!
扫码进群
▲点击上方卡片,关注CVer公众号
整理不易,请点赞和在看
继续阅读
阅读原文