首页 文章详情

重磅开源!Twins:更高效的视觉Transformer主干网,完美适配下游检测、分割任务

极市平台 | 517 2021-05-20 11:04 0 0 0
UniSMS (合一短信)
↑ 点击蓝字 关注极市平台

来源丨CVer
编辑丨极市平台

极市导读

 

来自美团和澳大利亚阿德莱德大学的研究人员提出了两种新型架构,通过条件位置编码增强PVT能力的Twins-PCPVT和基于空间可分离自注意力和全局亚采样模型加持的Twins-SVT模型。>>加入极市CV技术交流群,走在计算机视觉的最前沿

  • 单位:美团、阿德莱德大学
  • Arxiv: http://arxiv.org/abs/2104.13840
  • Github: https://github.com/Meituan-AutoML/Twins (分类、分割代码及模型均已开源)

值得注意的是,Twins 直接涵盖了 CPVT 的代码,相当于 Twins 和 CPVT 同时开源。

Twins 代码 Github 截图
Twins 预训练模型

视觉注意力模型(Vision Transformer [1])已然是视觉领域的第一热点,近期工作如金字塔 Transformer 模型 PVT [2] ,Swin [3] 聚焦于将其应用于目标检测、分割等稠密任务。将 Vision Transformer 适配下游任务、高效地对计算模式进行重新设计成为当下研究的重点。

美团和阿德莱德大学合作的这篇文章 Twins 提出了两种新的 Transformer 架构,分别起名叫 Twins-PCPVTTwins-SVT

第一种架构 Twins-PCPVT 通过将 PVT 中的位置编码(和 DeiT一样的固定长度可学习位置编码)进行替换为该团队前不久在 CPVT [4] 中提出的条件位置编码 (Conditional Positional Encodings) ,可以在分类和下游任务上可以直接获得大幅的性能提升,尤其是在稠密任务上,由于条件位置编码 CPE 支持输入可变长度,使得视觉 Transformer 能够灵活处理来自不同空间尺度的特征。该架构说明 PVT 在仅仅通过 CPVT 的条件位置编码增强后就可以媲美或超越 Swin 的性能,这个发现证实 PVT 性能不及 Swin 的原因是使用了不适合的位置编码。可见能够灵活处理变化分辨率的位置编码如 CPE,对于下游任务的影响很大。

图 1: Twins-PCPVT-S 模型结构,使用了CPVT 提出的条件位置编码器(PEG)

第二种架构 Twins-SVT (图2)基于对当前全局注意力的细致分析,对注意力策略进行了优化改进,新的策略融合了局部-全局注意力机制,作者将其类比于卷积神经网络中的深度可分离卷积 (depthwise separable convolution),并命名作空间可分离自注意力(Spatially Separable Self-Attention,SSSA)。与深度可分离卷积不同的是,Twins-SVT 提出的空间可分离自注意力( 图3) 是对特征的空间维度进行分组计算各组的自注意力,再从全局对分组注意力结果进行融合。

图 2: Twins-SVT-L 模型结构,右侧为两个相邻 Encoder 的结合方式
图3. Twins 提出的空间可分离自注意力机制 (SSSA)

空间可分离自注意力使用局部-全局注意力交替(LSA-GSA) 的机制,可以大幅降低计算成本,复杂度从输入的平方 O(HWd) 降为线性 O(mnHWd),通过将分组计算的注意力进行归纳并作为计算全局自注意力的键值,使得局部的注意力可以传导到全局。SVT 在实现上完全采用现有主流的深度学习框架实现,不需要额外的底层适配。具体的计算方式有公式(1)给定。

文中还给出了这种新型注意力(SSSA)的实现代码。

实验结果

ImageNet-1k 分类任务

Twins 的双胞胎模型 Twins-PCPVT 和 Twins-SVT 在分类任务上同等量级模型均取得 SOTA 结果,吞吐率也占优。

Twins 在下游任务中, 严格对齐了 PVT 的配置,对现有方法进行了公平对比,并在此基础上比肩 Swin。

ADE20K 分割

在语义分割任务上 ADE20K ,Twins 模型做主干网也达到了 SOTA 结果。

COCO 目标检测(Retina 框架)

在经典的 COCO 目标检测任务中,使用 Retina 框架,Twins 模型大幅超过了 PVT,且证明 PVT 在通过 CPVT 的编码方式增强之后,可以超过或媲美 Swin 同量级模型。

COCO 目标检测(Mask-RCNN 框架)

在 Mask-RCNN 框架下,Twins 模型在 COCO 上有较好的性能优势。

参考文献

  1. An image is worth 16x16 words: Transformers for image recognition at scale  https://openreview.net/pdf?id=YicbFdNTTy
  2. Pyramid Vision Transformer: A Versatile Backbone for Dense Prediction without Convolutions https://arxiv.org/pdf/2102.12122.pdf
  3. Swin Transformer: Hierarchical Vision Transformer using Shifted Windows https://arxiv.org/pdf/2103.14030.pdf
  4. Conditional Positional Encodings for Vision Transformers  https://arxiv.org/abs/2102.10882

本文亮点总结


1.在Swin Transformer中创造性地提出了利用移动窗口的方式来对不同窗格中的信息进行交互;而在 Pyramid vision Transformer(PVT)中则采取了金字塔的思想来对tokens进行亚采样进行计算从而提升了模型的计算效率。

如果觉得有用,就请分享到朋友圈吧!

△点击卡片关注极市平台,获取最新CV干货

公众号后台回复“广东CVPR”获取CSIG-广东省CVPR 2021论文学术报告会回放


极市干货

YOLO教程:YOLO算法最全综述:从YOLOv1到YOLOv5YOLO系列(从V1到V5)模型解读!
实操教程:PyTorch自定义CUDA算子教程与运行时间分析详解PyTorch中的ModuleList和Sequential详细记录solov2的ncnn实现和优化
算法技巧(trick):深度神经网络模型训练中的 tricks(原理与代码汇总)神经网络训练trick总结深度学习调参tricks总结
最新CV竞赛:2021 高通人工智能应用创新大赛CVPR 2021 | Short-video Face Parsing Challenge3D人体目标检测与行为分析竞赛开赛,奖池7万+,数据集达16671张!



CV技术社群邀请函 #

△长按添加极市小助手
添加极市小助手微信(ID : cvmart2)

备注:姓名-学校/公司-研究方向-城市(如:小极-北大-目标检测-深圳)


即可申请加入极市目标检测/图像分割/工业检测/人脸/医学影像/3D/SLAM/自动驾驶/超分辨率/姿态估计/ReID/GAN/图像增强/OCR/视频理解等技术交流群


每月大咖直播分享、真实项目需求对接、求职内推、算法竞赛、干货资讯汇总、与 10000+来自港科大、北大、清华、中科院、CMU、腾讯、百度等名校名企视觉开发者互动交流~



觉得有用麻烦给个在看啦~  
good-icon 0
favorite-icon 0
收藏
回复数量: 0
    暂无评论~~
    Ctrl+Enter