DenseNet将shortcut-connection的思路发挥到极致。在一个DenseBlock内部,每一层的输出均跟后面的层建立shortcut,特别需要注意的是,不同于ResNet中的相加,DenseNet连接shortcut的方式是Concat,这样越深的层则输入channel数越大。
DenseNet将shortcut-connection的思路发挥到极致。在一个DenseBlock内部,每一层的输出均跟后面的层建立shortcut,特别需要注意的是,不同于ResNet中的相加,DenseNet连接shortcut的方式是Concat,这样越深的层则输入channel数越大。
本文提出了深度网络的新维度,除了深度、宽度(Channel数)外,作者将在某一层并行transform的路径数提取为第三维度,称为”cardinality”。跟Inception单元不同的是,这些并行路径均共享同一拓扑结构,而非精心设计的卷积核并联。除了并行相同的路径外,也添加了层与层间的shortcut connection。但由于其多路径的设计特征,我将其归为Inception系网络。
MobileNets系列可以看做是继Xception之后对Depthwise Separable Convolution的又一推动。利用深度可分离的特征,MobileNets系列引入两个模型精度和大小的超参,在保持相当精度的同时享有非常小的计算消耗,适用于移动端情形,因而被命名为”MobileNets”。
本篇是keras库作者的文章,对Inception结构进行了改进:用Depth-wise seperable convolution替换了Inception单元中的1×1卷积和3×3卷积。
文章对Inception结构的评论非常有见地。
在15年,ResNet成为那年最耀眼的卷积网络结构,skip-connection的结构也成为避不开的考虑选项。Inception系列也参考ResNet更新了自己的结构。同时推出了第四代和跟ResNet的结合版:Inception-v4和Inception-ResNet。
这篇文章偏综述和实验报告的性质,前几个部分对检测模型有不错的概括,重头在实验结果部分,实验细节也描述的比较清楚,可以用来参考。
文章指出两阶段检测器通常在生成Proposal后进行分类的“头”(head)部分进行密集的计算,如ResNet为基础网络的Faster-RCNN将整个stage5(或两个FC)放在RCNN部分, RFCN要生成一个具有随类别数线性增长的channel数的Score map,这些密集计算正是两阶段方法在精度上领先而在推断速度上难以满足实时要求的原因。
YOLO是单阶段方法的开山之作。它将检测任务表述成一个统一的、端到端的回归问题,并且以只处理一次图片同时得到位置和分类而得名。
本文是作者推进inception结构的第2.5步。在更早的文章里,同一作者提出Batch Normalization并且用来改进了Inception结构,称为Inception-BN。而在这篇文章里,作者提出了Inception-v2和Inception-v3,两者共享同一网络结构,v3版本相比v2版本加入了RMSProp,Label Smoothing等技巧。
Update your browser to view this website correctly. Update my browser now