深度理论VGG-NET 网络

时间:2022-07-25
本文章向大家介绍深度理论VGG-NET 网络,主要内容包括其使用实例、应用技巧、基本知识点总结和需要注意事项,具有一定的参考价值,需要的朋友可以参考一下。

深度学习VGG-NET 网络

概述

VGG名字来源于Visual Geometry Group, Department of Engineering Science, University of Oxford。它是由Karen Simonyan & Andrew Zisserman2015年发表在论文《Very Deep Convolutional Networks for Large-Scale Image Recognition》中,并在2014年获得ImageNet Challenge中图像定位一等奖和图像分类二等奖,提高了图像分类的精度。 VGGNet的主要特点在于: (1)网络很深; (2)卷积层中使用的卷积核很小,且都是3*3的卷积核。

方法

使用了卷积神经网络,其中卷积核为3x3卷积核,按照模型的层数,分为11-19层,其中16层的模型为VGG-16,19层的为VGG-19

论文中,作者测试了A-E不同深度的神经网络。其中加粗的字体为目前这个网络和前一个网络的不同之处

conv3-64,为卷积核为3x3,通道为64个 maxpooling 采用最大池化原则,大小是2*2,步长为2 FC-4096 全连接层,4096个通道,最后一层则是1000,每个代表一个分类类别

VGG-16立体化图 13个卷积层(Convolutional Layer),分别用conv3表示 3个全连接层(Fully connected Layer),分别用FC表示 5个池化层(Pool layer),分别用maxpool表示 ReLU为隐藏层,为激活函数

有意思的是vgg网络可以按照卷积层和池化层组合划分为不同的块结构,分别为Block1~block5,每一个块分由若干个卷积层和池化层组成,如block4包含3个卷积层conv3-512,1个池化层,maxpool,maxpool用于图像尺度降维。

硬件要求

单纯的训练这个深度网络可能需要GPU,在装有4个NVIDIA Titan Black GPUs的电脑上,训练一个网络需要2-3周。

优势

GGNet在网络中使用很小的卷积,并通过串联的方式将卷积核串联,这样做的好处是在于感受的视野与大尺度的卷积核类似(两个连续的3x3的卷积相当于5x5的感受野,三个相当于7x7),同样的结果,3x3的卷积核需要更少的参数,同时3x3拥有更多的非线性变换,也就是影藏层的ReLU。

结束语

love&peace