[论文笔记]Speed/accuracy trade-offs for modern convolutional object detectors

这篇文章偏综述和实验报告的性质,前几个部分对检测模型有不错的概括,重头在实验结果部分,实验细节也描述的比较清楚,可以用来参考。

文章将检测模型分为三种元结构:Faster-RCNN、R-FCN和SSD,将特征提取网络网络独立出来作为元结构的一个部件,并松动了Proposal个数、输入图片尺寸,生成Feature map的大小等作为超参,并行实验,探索精度和速度方面的trade-off。

文章也将源码公开,作为Tensorflow的Object Detection API。

下图是三种元结构的图示:

meta-arch

Experiments

meta-arch

信息量非常大的一张图。

  • 横纵两个维度分别代表速度和准确度,横轴越靠左说明用时越少,纵轴越靠上说明mAP表现越好,因而,sweet spot应分布在左上角
  • 两个超维是元结构和特征提取网络,元结构由形状代表,特征提取网络由颜色代表
  • 虚线代表理想中的trade-off边界

分析:

  • 准确度最高的由Faster-RCNN元结构、Inception-ResNet提取网络,高分图片,使用较大的feature map达到,如图右上角
  • 较快的网络中准确度表现最好的由使用Inception和Mobilenet的SSD达到
  • sweet spot区特征提取网络由ResNet统治,较少Proposal的Faster-RCNN可以跟R-FCN相当
  • 特征提取网络方面,Inception V2和MobileNet在高速度区,Incep-ResNet和ResNet在sweet spot和高精度区,Inception V3和VGG则远离理想边界(虚线)

meta-arch

上图是特征提取网络对三种元结构的影响,横轴是特征提取网络的分类准确率,纵轴是检测任务上的mAP表现,可以看到,SSD在纵轴方向上方差最小,而Faster-RCNN和R-FCN对特征提取网络更为敏感。

meta-arch

上图的横轴是不同的特征提取网络,组内是三种元结构的对比,纵轴是不同尺寸物体的mAP。

可以看到,在大物体的检测上,使用较小的网络时,SSD的效果跟两阶段方法相当,更深的特征提取网络则对两阶段方法的中型和小型物体的检测提升较大(ResNet101和Incep-ResNet都显现了两阶段方法在小物体上的提升)

meta-arch

上图显示了输入图片尺寸对mAP的影响。高分的图片对小物体检测帮助明显,因而拥有更高的精度,但相对运行速度会变慢。

meta-arch

上图探究了两阶段方法中Proposal个数的影响,左边是Faster-RCNN,右边是R-FCN,实线是mAP,虚线是推断时间。
分析:

  • 相比R-FCN,Faster-RCNN推断时间对Proposal个数相当敏感(因为有per ROI的计算)
  • 减少Proposal的个数,并不会给精度带来致命的下降

meta-arch

meta-arch

上面两图是对FLOPS的记录,相对GPU时间更为中立,在图8中,GPU部分显现了ResNet跟Inception的分野(关于45度线,此时FLOPS跟GPU时间相当),文章认为分解操作(Factorization)减少了FLOPs,但增加了内存的IO时间,或者是GPU指令集更适合密集的卷积计算。

meta-arch

meta-arch

上两图是对内存占用的分析,总体来说,特征提取网络越精简、feature map尺寸越小,占用内存越少,运行时间也越短。

最后,文章描述了他们ensemble的思路,在一系列不同stride、loss和配置的Faster-RCNN中(ResNet和Incep-ResNet为特征提取网络),贪心地选择验证集上AP较高的,并且去除类AP相似的模型。选择的5个用于ensemble的模型如下:

meta-arch

Conclusion

这篇文章是不错的实验结果报告,测试了足够多的模型,也得出了合理的和有启发的结论。几点想法:

  • RFCN并没有很好的解决定位跟分类的矛盾,per ROI的子网络最好还是要有,但要限制Proposal的个数(实际大部分都是负样本)来减少冗余
  • 小物体的检测仍然是最大的难点,增大分辨率和更深的网络确有帮助,但不是实质的。

论文链接: https://arxiv.org/abs/1611.10012

[论文笔记]Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning [论文笔记]Light-Head R-CNN: In Defense of Two-Stage Object Detector
Your browser is out-of-date!

Update your browser to view this website correctly. Update my browser now

×