成都网站建设联系方式,云匠网官网,买网站去哪买,centos安装wordpress1.背景 2. ZF Net模型结构 3. 改进优缺点
一、背景 ZF Net是用作者的名字命名的#xff0c;Matthew D.Zeiler 和 Rob Fergus #xff08;纽约大学#xff09;#xff0c;2013年撰写的论文#xff1b;
论文原网址https://arxiv.org/abs/1311.2901
论文名#xff1a;Vis…1.背景 2. ZF Net模型结构 3. 改进优缺点
一、背景 ZF Net是用作者的名字命名的Matthew D.Zeiler 和 Rob Fergus 纽约大学2013年撰写的论文
论文原网址https://arxiv.org/abs/1311.2901
论文名Visualizing and Understanding Convolutional Networks
论文摘要大型卷积神经网络在ImageNet上表现出优秀的性能。本文试图解决两个问题这种模型为什么表现得如此优秀以及如何改进模型。我们引入了一种新颖的可视化技术深入了解中间特征层的功能和分类器的操作细节。可视化技术最终找到了一种比AlexNet性能更好的模型结构还发现了模型的不同层次做出的性能贡献。 这篇文章模型是2013ImageNet分类任务的冠军其网络结构没什么改进只是调了调参性能较Alex提升了不少。 ZF-Net只是将AlexNet第一层卷积核由11变成7步长由4变为2第345卷积层转变为384384256。这一年的ImageNet还是比较平静的一届其冠军ZF-Net的名堂也没其他届的经典网络架构响亮。
二、ZF Net模型结构
补充多通道卷积核卷积计算 下图是5* 5* 3被一个核的3* 3* 33* 3 *1
网络结构梳理 说明论文中提出一种新的可视化技术该技术可以了解中间特征图的功能和分类器的操作。 AlexNet第一层中有大量的高频边缘和低频非边缘信息的混合却几乎没有覆盖到中间的频率信息。 由于第一层卷积用的步长为4太大导致了有非常多的混叠情况学到的特征不是特别好看不像是后面的特征能看到一些纹理、颜色等。 因此作者针对第一个问题将AlexNet的第一层的卷积核大小从11 *11改成7 *7。同时针对第二个问题将第一个卷积层的卷积核滑动步长从4改成2。同时ZFNet将AlexNet的第345卷积层变为384384256。 区别是AlexNet用了两块GPU训练把3、4、5层分了两块而我们的结构更紧密。
网络层简介输入核数量-卷积窗口-填充-步长输出-激活函数核数量-池化窗口-步长输出-归一化过拟合方法一224 *224 *3使用96个核7* 7 *3的卷积padding0stride2110 *110 *96最大池化3 *3-stride255 *55 *96-LRN局部响应归一化,尺度5x5无二55 *55 *96使用256个核5* 5 *96的卷积padding0stride226 *26 *256最大池化3 *3-stride213 *13 *256-LRN局部响应归一化,尺度5x5无三13 *13 *256使用384个核3* 3*256的卷积padding1stride113 *13 *384无无-归一化无四13 *13 *384使用384个核3* 3*384的卷积padding1stride113 *13 *384无无-归一化无五13 *13 *384使用256个核3* 3*384的卷积padding1stride113 *13 *256最大池化3 *3-stride26 *6 *256-归一化无全连接层一6*6 *256使用4096个6×6×256的卷积核进行卷积1x1x4096—4096个神经元的运算结果通过ReLU激活函数中无无-归一化Dropout随机的断开全连接层某些神经元的连接通过不激活某些神经元的方式防止过拟合。drop运算后输出4096个本层的输出结果值全连接层二4096×14096个神经元无无-----4096个神经元的运算结果通过ReLU激活函数中无池化无-归一化4096个数据与第七层的4096个神经元进行全连接然后经由relu7进行处理后生成4096个数据再经过dropout7处理后输出4096个数据输出层4096×14096个神经元无无-----4096个神经元的运算结果通过ReLU激活函数中无池化无-归一化无
三、内容都有所提到具体看ZF net 项目练习总结