视频:https://www.bilibili.com/video/BV1FT4y1E74V?p=120
我要举例说明的第二种神经网络是AlexNet,是以论文的第一作者Alex Krizhevsky的名字命名的,另外两位合著者是Ilya Sutskever和Geoffery Hinton。
AlexNet首先用一张227×227×3的图片作为输入,实际上原文中使用的图像是224×224×3,但是如果你尝试去推导一下,你会发现227×227这个尺寸更好一些。
第一层我们使用96个11×11的过滤器,步幅为4,由于步幅是4,因此尺寸缩小到55×55,缩小了4倍左右。
(以下请有兴趣的同学一定要推导一下,算一算才有长进~)
然后用一个3×3的过滤器构建最大池化层,f=3,步幅s为2,卷积层尺寸缩小为27×27×96。接着再执行一个5×5的卷积,padding之后,输出是27×27×276。然后再次进行最大池化,尺寸缩小到13×13。
再执行一次same卷积,相同的padding,得到的结果是13×13×384,384个过滤器。
再做一次same卷积,就像这样。
再做一次同样的操作,最后再进行一次最大池化,尺寸缩小到6×6×256。
6×6×256等于9216,将其展开为9216个单元,然后是一些全连接层。
最后使用softmax函数输出识别的结果,看它究竟是1000个可能的对象中的哪一个。