海淀做企业网站的公司,温州集团网站建设,江都建设网站,做国外营销型网站一个简单的经典CNN网络结构由#xff1a;输入层、卷积层、池化层、全连接层和输出层#xff0c;这五种神经网络层结构组成。它最最经典的实例是LeNet-5#xff0c;它最早被设计用于手写数字识别任务#xff0c;包含两个卷积层、两个池化层、几个全连接层#xff0c;以及最… 一个简单的经典CNN网络结构由输入层、卷积层、池化层、全连接层和输出层这五种神经网络层结构组成。它最最经典的实例是LeNet-5它最早被设计用于手写数字识别任务包含两个卷积层、两个池化层、几个全连接层以及最后的输出层。
一、先用文字介绍一下这五层分别在做什么
1输入层 输入通常是经过预处理的图像数据例如将图像调整到特定尺寸如32x32x3并进行归一化使得像素值范围在0到1之间或者被标准化为均值为0标准差为1的形式。
2卷积层 卷积层是CNN的关键组成部分又可以拆分成下面4分部分逐一理解
卷积核Filter/Kernels每个卷积层包含多个可学习的滤波器或称为卷积核这些滤波器在输入图像上滑动执行卷积操作相乘后求和从而检测图像中的特定特征如边缘、线条、纹理等。步长Stride滤波器在图像上移动的步长决定了输出特征图的空间分辨率。填充Padding通常为了保持输出特征图的尺寸或避免边界信息的丢失会在图像边缘添加零Zero Padding。激活函数如ReLURectified Linear Unit用于增加网络的非线性。
3池化层 池化层的负责减少特征图的空间尺寸降低计算复杂度同时保持最重要的特征。最常见的池化类型是最大池化Max Pooling它在每个池化区域取最大值作为输出。池化同样有步长和大小的参数比如常用的2x2大小步长为2。
4全连接层 在一系列卷积和池化层之后特征图会被展平Flatten成一维向量然后传递给全连接层。全连接层负责将学到的特征映射到分类标签或其他输出形式。全连接层是传统神经网络的一部分常用于模型的最终分类或回归任务。
5输出层 对于分类任务输出层通常使用Softmax激活函数将神经元的输出转换为概率分布表示每个类别的预测概率。输出层的神经元数量等于分类任务的类别总数。
二、再用可视化加深对经典CNN结构的理解
1经典CNN结构 LeNet-5网络结构图英文 CNN有个特点5个层组成输入层、卷积层、池化层、全连接层和输出层在神经网络的隐藏层部分卷积层和池化层交替出现最后跟上几个全连接层再跟输出层。 重复的卷积层与池化层的组合目的是为了学习更深层次、更复杂的特征每次这样的组合都会使网络能够捕捉到更高层次的抽象特征如从边缘逐步过渡到形状、纹理乃至对象的部分和整体。 LeNet-5网络结构图中文 2这样的网络结构设计会出现一种现象 经过这样的网络结构后图像的尺寸会减小图像的通道数会增大。 这种变化反映了网络从原始像素数据中提取并逐步构建更高级、更抽象特征的过程。对此现象稍作解释
① 图像尺寸减小
卷积层卷积层本身不一定会减少图像尺寸但可以通过设置合适的填充padding和步长stride来控制输出尺寸。无填充且步长大于1的卷积会缩小输出尺寸。池化层池化层的主要作用之一就是减少空间维度高度和宽度通常在每个维度上减半从而显著减小图像尺寸同时保持最重要的特征。
② 通道数增大
卷积层每个卷积层通过不同的卷积核学习不同的特征每个卷积核会产生一个新的通道。因此卷积层后的通道数通常会增加具体增加的数量等于该层中滤波器卷积核的数量。池化层池化操作不会改变通道数它只影响空间维度。全连接层进入全连接层之前所有之前的层包括卷积层和池化层的输出会被“展平”成一维向量此时不再讨论“通道”这个概念而是关注于神经元的总数。