Vision transformers(ViT) 在包括 low-level 任务在内的各种视觉任务中显示出不错的性能,而 U-Net 在  score-based 的扩散模型中仍然占主导地位。在本文中,对扩散模型中基于 ViT 的架构进行了系统的实证研究。结果表明,向 ViT 添加超长的 skip connections(如 U-Net)对于扩散模型至关重要。新的 ViT 架构与其他改进一起被称为 U-ViT。在几个流行的视觉数据集上,U-ViT 实现了与 SOTA U-Net 具有竞争力的生成结果。

1、简介

随着算法的发展,主干网的革命在(score-based)扩散模型的成功中起着核心作用。一个有代表性的例子是先前工作中使用的 U-Net 架构,它在图像生成任务的扩散模型中仍然占主导地位。一个非常自然的问题是,在此类模型中是否需要依赖 U-Net
另一方面,Vision transformers(ViT) 已在各种视觉任务(包括 low-level 任务)中显示出前景。与 CNN 相比,ViT 在大规模上更可取,因为它具有可扩展性和效率。尽管基于Score的扩散模型已经大幅扩大,但仍不清楚 ViT 是否适合Score建模。
在本文中对扩散模型中基于 ViT 的架构进行了系统的实证研究。将标准 ViT 修改如下:
  1. 增加超长skip连接(如U-Net);
  2. 在输出前增加一个额外的3×3卷积块;
  3. 将噪声图像的 time embeddinglabel embeddingpatches 等所有内容都视为 Tokens
生成的架构称为 U-ViT。在几个流行的视觉数据集上,U-ViT 实现了与 SOTA U-Net 架构相媲美的生成结果,同时需要相当数量的参数和计算,如果不是更少的话。我们的结果表明:
  1. ViT 有望用于基于分数的扩散模型;
  2. 长跳跃连接在扩散模型的成功中起着核心作用;
  3. 扩散模型不需要下采样和上采样算子。
我们相信,未来大规模或跨模态数据集的扩散模型可能会受益于 U-ViT

2、本文方法

作者首先尝试在 CIFAR10 上使用 vanilla ViT 训练扩散模型。为简单起见,将包括 time embeddinglabel embedding 和噪声图像的 patches 在内的所有内容都视为 Tokens。通过仔细调整超参数,大小为 41M 的 13 层 ViT 实现了 FID 5.97,明显优于之前基于 ViT 的扩散模型的 20.20。作者推测这主要是因为模型更大。但是,这显然比类似大小的 U-Net 的 3.17 差。
U-Netskip connections 的重要性在 low-level 视觉任务中已经实现了很长时间。由于所有局部信息在分数建模(或噪声预测)中也至关重要,假设 skip connections 在此类任务中也起着核心作用。因此,向 ViT 添加额外的 skip connections 并获得 4.24 的 FID。
最后,在输出之前添加了一个 3×3 卷积块,以避免 patches 之间的潜在伪影,并获得 3.11 的 FID,这与 DDPM 的结果具有竞争力。整体架构如图 1 所示,为清楚起见,表 1 总结了消融结果。

3、实验

4、参考

[1].All are Worth Words: a ViT Backbone for Score-based Diffusion Models.

5、推荐阅读

长按扫描下方二维码添加小助手并加入交流群,群里博士大佬云集,每日讨论话题有目标检测、语义分割、超分辨率、模型部署、数学基础知识、算法面试题分享的等等内容,当然也少不了搬砖人的扯犊子
长按扫描下方二维码添加小助手。
可以一起讨论遇到的问题

声明:转载请说明出处

扫描下方二维码关注【集智书童】公众号,获取更多实践项目源码和论文解读,非常期待你我的相遇,让我们以梦为马,砥砺前行!
继续阅读
阅读原文