外省住房和城乡建设厅网站,网站落地页制作,如何能让企业做网站的打算,上海外贸出口代理公司深度学习通常指训练大型深度的神经网络的过程。
与传统的神经网络模型相比#xff0c;深度学习模型在结构上与之非常相似#xff1b;不同的是#xff0c;深度学习模型的“深度”更大#xff0c;“深度”的体现就是神经网络层数多#xff0c;神经网络每一层的结点数多。 本…深度学习通常指训练大型深度的神经网络的过程。
与传统的神经网络模型相比深度学习模型在结构上与之非常相似不同的是深度学习模型的“深度”更大“深度”的体现就是神经网络层数多神经网络每一层的结点数多。 本章介绍两种深度神经网络——卷积神经网络和循环神经网络以及它们分别在图像处理、文本处理和语音处理上的效果。
卷积神经网络CNN 与普通神经网络相比卷积神经网络引入了“卷积”和“池化”两个操作。 *卷积”操作的思想 采用一个较小的卷积核例如 3×3 的矩阵来对图像特征进行局部的提取。这样做可以增加参数的共享减少随着神经网络变深、结点数变多而带来的巨大计算量。 *池化”操作的思想 采用一种过滤的方法去除冗余信息并且加快计算。池化可以将一个 4×4 的图像切割成 4 个 2×2 的小矩阵在每个小矩阵中取最大值所得结果形成一个新矩阵。这种操作可以减少神经网络结点的个数加快计算速度。 在卷积神经网络中通常某一个层都是在做卷积处理某一层都是在做池化处理。一般它们都是在层次之间交替进行的。经过多层卷积、池化操作后所得特征图的分辨率远小于输入图像的分辨率减少了计算量加快了计算速度。 池化层夹在连续的卷积层中间 用于压缩数据和参数的量。 简而言之如果输入是图像的话那么池化层的最主要作用就是压缩图像。 个人理解的同图片resize方法类似双线性插值法邻近法只不过池化层用的是取最大值法。 个人觉得主要是两个作用
invariance(不变性)这种不变性包括translation(平移)rotation(旋转)scale(尺度) 保留主要的特征同时减少参数(降维效果类似PCA)和计算量防止过拟合提高模型泛化能力。 但印象里新paper都爱用1X1的卷积来取代池化了。