原论文:Auto-FPN: Automatic Network Architecture Adaptation for Object Detection
Beyond Classification

之前的AutoML都是应用在图像分类或者语言模型上,AutoFPN成功地将这技术应用到了目标检测任务上。

传统two-stage目标检测网络结构

在介绍AutoFPN之前,首先大致介绍一下two-stage目标检测网络的结构组成。

  • backbone:即用来提取图像特征的网络结构,常用ResNet或VGG来提取特征
  • RPN(region proposal networks): 这个网络的作用是在backbone提取得到的特征的基础上进一步预测出若干个区域,比如faster-rcnn可能会生成2000个proposals,这些proposals中可能存在错误的或者存在些许偏差的,所以还需要进一步由后面的网络处理
  • RCNN (region CNN) head: 简单理解就是针对生成的proposal区域做进一步的分类和位置回归。

AutoFPN

AutoFPN的创新点在后面两个网络中,如下图示,主要是针对backbone的特征先做自动fusion操作(Auto-fusion),另外就是对head网络使用NAS技术搜索得到一个网络用于分类和回归(Auto-head)。

Auto-fusion

Auto-fusion其实是基于之前的一些工作的改进,如下图示:

  • 最开始SSD会对不同尺度的特征图做预测
  • 之后FPN提出了自上而下的连接方式,将不同尺度的特征图信息进行结合
  • PANet通过直接将最底层的特征与最高层的特征图进行连接,进一步增强特征图之间的联系
  • Auto-fusion则是通过搜索网络结构来让算法自动找到不同层之间最合适的连接方式。

Auto-fusion搜索方法设计考虑的有如下两个方面:

  • 搜索空间覆盖所有的连接方式
  • 因为在TridenNet中使用dilated conv得到了不错的效果,所以不同大小的dilated conv加入到了搜索空间中去。搜索空间如下:
    • no connection (none)
    • skip connection (identity)
    • 3×3 dilated conv with rate 2
    • 5×5 dilated conv with rate 2
    • 3×3 dilated conv with rate 3
    • 5×5 dilated conv with rate 3
    • 3×3 depthwise-separable conv
    • 5×5 depthwise-separable conv

下面结合上图介绍Auto-fusion结构的表示方式。

对于backbone提取的4个特征图我们用\({P^0_1,P^0_2,P^0_3,P^0_4}\)表示,\(P^0_4\)表示第0层的第4个特征图,其高宽都比原图的小4倍。那么如果Auto-fusion结构一共有\(L\)层,则第\(l\)层的特征图可表示为\(P^l_1,P^l_2,P^l_3,P^l_4\)。第\(l-1\)层的\(i\)节点到第\(l\)层的\(j\)节点的operation可表示为(这里如果不明白先了解一下DARTS这篇论文):

\[
\begin{array}{c}{\hat{O}_{i \rightarrow j}\left(P_{j}^{l-1}\right)=\sum_{O^{k} \in \mathcal{O}_{N}} \alpha_{i \rightarrow j}^{k l} O_{i \rightarrow j}^{k l}\left(P_{j}^{l-1}\right)} \\ {\text { where } \sum_{k=1}^{\left|O_{N}\right|} \alpha_{i \rightarrow j}^{k l}=1, \text { and } \alpha_{i \rightarrow j}^{k l} \geq 0}\end{array}
\]

下图给出了Auto-fusion某一层的示意图,可以看到因为要使得不同尺度的特征图能做融合操作,首先都会用conv 1*1的操作,而后再计算不同operation的权重。

Auto-fusion对于one-stage和two-stage目标检测网络都适用。

Auto-head

Auto-head其实简单理解就是和DARTS一样搜索得到一个CNN结构,示意图如下

不过有如下几个方面作了修改,有必要提一下:

  • Auto-head由\(M\)个cell组成,每个cell由7个nodes组成。每个cell有两个inputs,分别是前一个和前前一个cell的outputs。
  • 在DARTS中,最后有两类cell,分别是normal cell和reduction cell。而在Auto-head中每个cell的结构可以不一样,也就是说Auto-head可以由\(M\)个不同的cell组成
  • Auto-head中没有使用reduction cell,因为到了这一步特征图大小已经很小了(如7*7)
  • 同上,涉及到卷积的操作也不用dilated conv了,但是为了更好地提取特征,在每个operation后面还会加上3*3和5*5的卷积操作

Resource constraint

AutoFPN还加入了资源约束,这样既可以避免生成的模型过大,也能够加速搜索和训练过程。很直观的一种想法是将forward时间作为约束条件,但是测得的forward时间相对于模型参数并不是可微的,所以考虑如下三个方面来对资源约束建模:

  • 模型大小
  • FLOPs
  • memory access cost (MAC)

公示表示如下:

\[
C(\alpha, \beta)=\sum_{i, j, k, l} \alpha_{i \rightarrow j}^{k l} C\left(O_{i \rightarrow j}^{k l}\right)+\sum_{i, j, k} \beta_{i \rightarrow i}^{k} C\left(O_{i \rightarrow j}^{k}\right)
\]

那么总的loss表达式如下:

\[
\mathcal{L}(w, \alpha, \beta)=\mathcal{L}_{m o d e l}(w, \alpha, \beta)+\lambda C(\alpha, \beta)
\]

其中\(\alpha\)表示模型参数,即我们常说的卷积核参数或者全连接层参数等,\(\beta\)表示模型结构参数,即记录了不同operation的权重。值得一提的是\(\lambda\)这个参数,因为通过修改这个参数的大小,我们能够控制模型的相对大小,例如如果我们令\(\lambda\)比较大,那么最终得到的网络大小就会相对小一些,反之则大一些。在论文中,给出了三个等级的效果,具体结果看下一节。

实验结果

Auto-fusion和Auto-head搜索结果

下图给出了Auto-fusion和Auto-head搜索结果,可以看到identity和conv_5*5在两个结构中用的最多。

不同大小模型的结果对比

按照文中的说法是分别Auto-fusion和Auto-head是分别进行搜索的,所以最后的AutoFPN是将二者最好的结果进行组合得到的。可以看到在不同的数据集上搜索得到的网络结构更小,而且结果也能更好。

不过我看这结果有几个疑问,就是结果的提升到底算不算显著呢?结构的提升有多少其实是炼丹炼出来而不是搜网络结构搜出来的呢?ε=(´ο`*)))唉

NAS baseline比较结果

最后文中还给出了不同搜索策略的结果对比,可以看到基于梯度下降的效果还是很不错的。

训练tricks大放送

作者很良心给出了5个训练技巧:

1) 先训练初始化结构一段时间,然后再开始搜索网络结构:Starting optimizing architecture parameters in the middle of training can improve the results by 1%;
2) 在搜索阶段固定backbone参数:Freezing the backbone parameters during searching not only accelerates the training but also improves the performance;
3) 搜错阶段不要用BN:Searching with BN will decrease the performance by 1.7%;
4) 在搜索head结构时,最好使用训练好的neck结构:During searching for the head, loading the pretrained neck will boost the performance by 2.9%;
5) 大模型对neck部分性能有些许提升,但是对head好像并没有:Without resource constraints, our method becomes larger with only a small im- provement in neck but no improvement in head.

MARSGGBO♥原创







2019-12-3

最新文章

  1. hibernate5ID生成策略
  2. C++ 中超类化和子类化常用API
  3. 再谈this
  4. tfs witadmin
  5. [ZT] 几大酒店集团美国Co-Brand信用卡比较(三)如何选择最适合你的酒店联名信用卡
  6. 《Oracle Database 12c DBA指南》第二章 - 安装Oracle和创建数据库(2.1 安装Oracle数据库软件和创建数据库概览)
  7. WS_CLIPCHILDREN和WS_CLIPSIBLINGS的理解(转载)
  8. oracle的学习 第二节:创建数据表
  9. [转]关于HTTP服务器每个客户端2个连接的限制
  10. MinGW是什么
  11. HTTP could not register URL http://+:86/. 设置VS默认以管理员权限打开
  12. android测试之——mokeyrunner上(二)
  13. 中国版Office 365 应用程序注册
  14. 深入设计电子计算器(一)——CPU框架及指令集设计
  15. UE4学习心得:蓝图间信息通信的几种方法
  16. DCGAN 论文简单解读
  17. Linux安装Apache常见报错(一)
  18. DataGridView控件用法一:数据绑定
  19. 4.App测试与Web测试的不同
  20. NOIP2015其余几道题

热门文章

  1. vue操作select获取option值
  2. c# 第25节 方法重载
  3. IntelliJ IDEA 快捷键(七)
  4. 【[POI2012]TOU-Tour de Byteotia】
  5. Paper | A Pseudo-Blind Convolutional Neural Network for the Reduction of Compression Artifacts
  6. 第02组 Beta冲刺(5/5)
  7. npm ERR! Cannot read property 'resolve' of undefined
  8. Flume笔记
  9. Visual Studio 2019 (VS2019)正式版安装 VisualSVN Server 插件
  10. 【03】Nginx:location / root / alias