论文提出了用于快速图像分类推理的混合神经网络
LeVIT
,在不同的硬件平台上进行不同的效率衡量标准的测试。总体而言,
LeViT
在速度/准确性权衡方面明显优于现有的卷积神经网络和
ViT
,比如在80%的
ImageNet top-1
精度下,
LeViT

CPU
上比
EfficientNet
快5倍

来源:晓飞的算法工程笔记 公众号

论文: LeViT: a Vision Transformer in ConvNet's Clothing for Faster Inference

Introduction


虽然许多研究旨在减少分类器和特征提取器的内存占用,但推理速度同样重要,高吞吐量对应于更好的能源效率。论文的目标是开发一个基于
Vision Transformer
的模型系列,在
GPU

CPU

ARM
等高度并行的架构上具有更快的推理速度。

在相同的计算复杂度下,
Transformer
的速度会比卷积架构更快。这是因为大多数硬件加速器(
GPU

TPU
)都经过优化以执行大型矩阵乘法,而在
Transformer
中的注意力块和
MLP
块主要依赖于矩阵乘法。相反,卷积需要复杂的数据访问模式,通常跟
IO
绑定的。

论文引入轻量的卷积组件来代替产生类似卷积特征的
Transformer
组件,同时将统一的
Transformer
结构替换为带池化的金字塔结构。由于整体结构类似于
LeNet
,论文称新网络为
LeViT

除提出
LeViT
外,论文还提供了以下缩小
ViT
模型体量的方法:

  • 使用注意力作为下采样机制的多阶段
    Transformer
    架构。
  • 计算高效的图像块提取器,可减少第一层中特征数量。
  • 可学习且平移不变的注意力偏置,取代位置编码。
  • 重新设计的
    Attention-MLP
    块,计算量更低。

Motivation


Convolutions in the ViT architecture

ViT
的图像块提取器一般为步幅
16

16x16
卷积,然后将输出乘以可学习的权重来得到第一个自注意力层的
\(q\)
,
\(k\)

\(v\)
特征。论文认为,这些操作也可以认为是对输入进行卷积函数处理。

如图2所示,论文可视化了
DeiT
第一层的注意力权值,发现权值空间都有与
Gabor
滤波器类似的模式。

卷积中权值空间的平滑度主要来自卷积区域的重叠,相邻的像素接收大致相同的梯度。对于没有区域重叠
ViT
,权值空间的平滑可能是由数据增强引起的。当图像训练多次且有平移时,相同的梯度也会平移通过下一个滤波器,因此学习到了这种平滑的权值空间。

因此,尽管
Transformer
架构中不存在归纳偏置,但训练确实会产生类似于传统卷积层的权值空间。

Preliminary experiment: grafting

ViT
的作者尝试将
Transformer
层堆叠在传统的
ResNet-50
之上,将
ResNet-50
充当
Transformer
层的特征提取器,梯度可以在两个网络传播中。然而,在他们的实验中,
Transformer
层的数量是固定的。


ViT
的实验不同的是,论文主要在相近算力的情况下对比不同数量的卷积阶段和
Transformer
层数时之间的性能,进行
Transformer
与卷积网络的混合潜力的研究。

论文对具有相似的运行时间
ResNet-50

DeiT-Small
进行实验,由于裁剪后的
ResNet
产生的激活图比
DeiT
使用的
\(14\times14\)
激活图更大,需要在它们之间引入了一个平均池化层。同时,在卷积层和
Transformer
层的转换处引入了位置编码和分类标记。对于
ResNet-50
,论文使用
ReLU
激活层和BN层。

结果如表1所示,混合架构均比单独的
DeiT

ResNet-50
的性能要好,两个阶段的
ResNet-50
的参数数量最少且准确度最高。

论文在图 3 中展示了一个有趣的观察结果:混合模型在训练期间的早期收敛类似于卷积网络,随后切换到类似于
DeiT-S
的收敛速度。由于卷积层具有很强的归纳偏差能力(尤其是平移不变性),能够更有效地学习早期层中的低级特征,而高质量的图像块编码使得训练初期能更快地收敛。

Model


Design principles of LeViT

LeViT
建立在
ViT
架构和
DeiT
训练方法之上,引入一些对卷积架构有用的组件。忽略分类标记的作用,
ViT
就是处理特征图的层堆叠,中间的特征编码可以看作是
FCN
架构中的传统
\(C\times H\times W\)
特征图(
\(B C H W\)
格式)。因此,适用于特征图的操作(池化、卷积)也可以应用于
DeiT
的中间特征。

需要注意的是,优化计算架构不一定要最小化参数数量。
ResNet
系列比
VGG
网络更高效的设计之一是在两个阶段以相对较小的额外计算消耗进行有效的分辨率降低,使得第三阶段的激活图的分辨率缩小到足够小(
14x14
),从而降低了计算成本。

LeViT components

  • Patch embedding

先前的分析表明,将小型卷积网络应用于
Transformer
的输入时可以提高准确性。在
LeViT
中,论文选择 4 层
\(3\times3\)
卷积(步幅为 2)来对输入进行处理,通道数分别为
\(C\ =\ 32,64,128,256\)
,最终输出大小为
\((256,14,14)\)
的特征。这里的特征提取仅用了184 MFLOPs,而
ResNet-18
用了 1042 MFLOPs来执行相同的降维。

  • No classification token

为了使用
\(B C H W\)
的张量格式,论文去掉了分类标记,改为在最后一个特征图上用平均池化来产生用于分类器的编码。对于训练期间的蒸馏,论文为分类和蒸馏任务训练了不同的分类器。在测试时,将两个分类器输出进行平均。在实践中,
LeViT
可以使用
\(B N C\)

\(BCHW\)
张量格式来实现,以实际效率为准。

  • Normalization layers and activations

ViT
架构中的
FC
层相当于
\(1 \times 1\)
卷积,每个注意力层和
MLP
层前都使用层归一化。对于
LeViT
,每个卷积之后都进行
BN
归一化,与残差连接相连的
BN
归一化层的权值都被初始化为零。
BN
归一化可以与前面的卷积合并推理,这是优于层归一化的运行时优势(在
EfficientNet B0
上,这种融合将
GPU
上的推理速度提高了 2 倍)。
DeiT
使用
GELU
激活函数,而
LeViT
使用
Hardswish
激活函数。

  • Multi-resolution pyramid

卷积架构一般构建为金字塔,特征分辨率随着处理过程中通道数量的增加而降低。
LeViT

ResNet
的阶段集成到
Transformer
架构中,阶段内部则是类似于
ViT
的残差结构。

  • Downsampling


LeViT
的阶段之间,使用
shrinking
注意力块来减小激活图的大小。在
Q
映射前,先应用下采样再软激活得到输出。这可以将大小为
\((C,H,W)\)
的输入张量映射到大小为
\((G^{\prime},H/2,W/2)\)
的输出张量,其中
\({C}^{\prime}\,>\,{C}\,\)
。由于尺寸的变化,使用此注意力块时没有残差连接。另外,为了防止信息丢失,论文将注意力头的数量增加为
\(C/D\)

  • Attention bias instead of a positional embedding

Transformer
架构中的位置编码是一个位置相关的可训练参数向量,将其与输入序列合并后再输入
Transformer
块进行后续计算。如果不使用位置编码,
Transformer
输出将独立于输入序列的排列关系,导致分类精度的急剧下降。

由于位置编码对于更高层特征提取也很重要,因此它很可能保留在中间特征中,导致不必要地占用特征容量。因此,论文尝试在每个注意力块内提供位置信息,并在注意力机制中显式注入相对位置信息(在注意力图计算中添加一个注意力偏差)。

对于头
\(h\in[N]\)
,两个像素
\((x,y)\ \in [H] × [W]\)

\((x^{\prime},y^{\prime})\in[H]\times[W]\)
之间的注意力值计算为

\[A_{(x,y),(x^{\prime},y^{\prime})}^{h}=Q_{(x,y),:}\bullet K_{(x^{\prime},y^{\prime}),:}+B^{h}_{|x-x^{\prime}|,|y-y^{\prime}|}.
\]

第一项是经典注意力,第二个是平移不变的注意力偏置。每个头都有
\(H\times W\)
个参数,对应不同的像素偏移情况,距离取绝对值能鼓励模型训练翻转不变性。

  • Smaller keys

注意力偏置项减少了键映射矩阵编码位置信息的压力,因此论文减小了
\({\cal{Q}}\)

\({\cal{K}}\)
通道数,缩短相关矩阵的运算时间。假设
\({\cal{Q}}\)

\({\cal{K}}\)
的通道数为
\(D\;\in\;\{16,32\}\)
,则
\({\cal{V}}\)
的通道数为
\(2D\)

对于没有残差连接的下采样层,论文将
\({\cal{V}}\)
的维度设置为
\({\mathrm{4}}D\)
以防止信息丢失。

  • Attention activation

在使用线性映射组合不同头的输出之前,论文对
\(A^{h}V\)
乘积应用
Hardswish
激活。

  • Reducing the MLP blocks

ViT
中的
MLP
残差块是一个线性层,先将输入通道数增加 4 倍,应用非线性映射后再通过另一个非线性映射将其降低回原始输入的通道数。由于
MLP
在运行时间和参数方面通常比注意力块更高,
LeViT

MLP
层替换为
\(1\times 1\)
卷积,然后通过
BN
层进行归一化。为了降低计算成本,论文将卷积的扩展因子从4减少到2,这使得注意块和
MLP
块的计算量大致相同。

The LeViT family of models

LeViT
模型可以通过改变各阶段的大小来权衡速度和精度,表2展示了论文涉及的
LeViT
系列模型。

Experiments


Experimental context

论文在
PyTorch
中运行所有实验,因此论文依赖于该
API
中可用的优化。为了获得更客观的时序,论文在三个不同的硬件平台上对推理进行计时,每个平台对应一个用例:

  • 一个
    16GB NVIDIA Volta GPU
    (峰值性能为
    12 TFLOP/s
    ),这是一个典型的训练加速器。
  • 2.0 GHz

    Intel Xeon 6138 CPU
    ,这是数据中心中的典型服务器。
    PyTorch
    针对此配置进行了很好的优化,使用
    MKL

    AVX2
    指令(16 个向量寄存器,每个寄存器 256 位)。
  • ARM Graviton2 CPU

    Amazon C6g
    实例),这是移动电话和其他边缘设备运行的处理器类型。
    Graviton2
    有 32 个内核,支持带有 32 个 128 位向量寄存器 (
    NEON
    ) 的
    NEON
    矢量指令集。

Training LeViT

论文使用 32 个
GPU
在 3 到 5 天内训练 1000 个周期,这比卷积网络的通常时间表要多,但是
ViT
本身就需要长时间的训练才能有更好的性能。论文使用类似于
DeiT
的蒸馏训练,这意味着
LeViT
使用两个具有交叉熵损失的分类头进行训练:第一个头接受来自真实类的监督,第二个来自在
ImageNet
上训练的
RegNetY-16GF
模型。实际上,
LeViT
的训练时间主要由教师网络的推理时间决定。

Speed-accuracy tradeoffs

表 3 显示了论文使用
LeViT
在速度和精度之间的权衡,图 1 则绘制了一些显着数字。在同级别的速度下,
LeViT
的速度都要优异一些。

在表 3 中,测试集还有
Imagenet Real

Imagenet V2
(
matched-frequency
),两个数据集使用与
ImageNet
相同的一组类和训练集。
Imagenet-Real
对图片重新标签,每个图像可能有多个类别,
Imagenet-V2
则使用新的测试图。通过模型在这两个数据集上的性能,可以验证超参数调整有没有对
ImageNet
验证集过度拟合。

Comparison with the state of the art

表 4 展示其他基于
Transformer
架构的结果进行了对比,可以与
LeViT
(表 3)进行比较,实验不包括速度慢的大模型。为了方便,论文直接以
FLOPs
作为速度标准,不实测时间。

Ablations

为了评估对
LeViT
性能有贡献的因素,论文使用默认设置进行实验,每次实验替换一个因素。实验仅运行 100 个训练周期以放大差异并减少训练时间,表 5 的结果展示了所有替换都会导致准确性的降低。

Conclusion


论文介绍了受卷积网络启发的
Transformer
架构
LeViT
,使用
DeiT
中的训练技术。
LeViT
的核心是在精度和速度之间进行权衡,在相当的精度下能够快 1.5 到 5 倍。



如果本文对你有帮助,麻烦点个赞或在看呗~
更多内容请关注 微信公众号【晓飞的算法工程笔记】

work-life balance.

标签: none

添加新评论