当前位置: 首页 > news >正文

一起做网店类似网站北京网站优建设

一起做网店类似网站,北京网站优建设,北京开发app,wordpress插件 网站由于神经网络中有不同的层结构#xff0c;不同类型的层又有不同的参数#xff0c;所有就根据Caffe官网的说明文档做了一个简单的总结。 1. Vision Layers 1.1 卷积层(Convolution) 类型#xff1a;CONVOLUTION 例子 layers { name: conv1 type: CONVOLUTION … 由于神经网络中有不同的层结构不同类型的层又有不同的参数所有就根据Caffe官网的说明文档做了一个简单的总结。 1. Vision Layers 1.1 卷积层(Convolution) 类型CONVOLUTION 例子 layers { name: conv1 type: CONVOLUTION bottom: data top: conv1 blobs_lr: 1 # learning rate multiplier for the filters blobs_lr: 2 # learning rate multiplier for the biases weight_decay: 1 # weight decay multiplier for the filters weight_decay: 0 # weight decay multiplier for the biases convolution_param { num_output: 96 # learn 96 filters kernel_size: 11 # each filter is 11x11 stride: 4 # step 4 pixels between each filter application weight_filler { type: gaussian # initialize the filters from a Gaussian std: 0.01 # distribution with stdev 0.01 (default mean: 0) } bias_filler { type: constant # initialize the biases to zero (0) value: 0 } }} blobs_lr: 学习率调整的参数在上面的例子中设置权重学习率和运行中求解器给出的学习率一样同时是偏置学习率为权重的两倍。  weight_decay 卷积层的重要参数 必须参数 num_output (c_o)过滤器的个数 kernel_size (or kernel_h and kernel_w)过滤器的大小 可选参数 weight_filler [default type: constant value: 0]参数的初始化方法 bias_filler偏置的初始化方法 bias_term [default true]指定是否是否开启偏置项 pad (or pad_h and pad_w) [default 0]指定在输入的每一边加上多少个像素 stride (or stride_h and stride_w) [default 1]指定过滤器的步长 group (g) [default 1]: If g 1, we restrict the connectivityof each filter to a subset of the input. Specifically, the input and outputchannels are separated into g groups, and the ith output group channels will beonly connected to the ith input group channels. 通过卷积后的大小变化 输入n * c_i * h_i * w_i 输出n * c_o * h_o * w_o其中h_o (h_i 2 * pad_h - kernel_h) /stride_h 1w_o通过同样的方法计算。 1.2 池化层Pooling 类型POOLING 例子 layers { name: pool1 type: POOLING bottom: conv1 top: pool1 pooling_param { pool: MAX kernel_size: 3 # pool over a 3x3 region stride: 2 # step two pixels (in the bottom blob) between pooling regions }} 卷积层的重要参数 必需参数 kernel_size (or kernel_h and kernel_w)过滤器的大小 可选参数 pool [default MAX]pooling的方法目前有MAX, AVE, 和STOCHASTIC三种方法 pad (or pad_h and pad_w) [default 0]指定在输入的每一遍加上多少个像素 stride (or stride_h and stride_w) [default1]指定过滤器的步长 通过池化后的大小变化 输入n * c_i * h_i * w_i 输出n * c_o * h_o * w_o其中h_o (h_i 2 * pad_h - kernel_h) /stride_h 1w_o通过同样的方法计算。 1.3 Local Response Normalization (LRN) 类型LRN Local ResponseNormalization是对一个局部的输入区域进行的归一化激活a被加一个归一化权重分母部分生成了新的激活b有两种不同的形式一种的输入区域为相邻的channelscross channel LRN另一种是为同一个channel内的空间区域within channel LRN 计算公式对每一个输入除以 可选参数 local_size [default 5]对于cross channel LRN为需要求和的邻近channel的数量对于within channel LRN为需要求和的空间区域的边长 alpha [default 1]scaling参数 beta [default 5]指数 norm_region [default ACROSS_CHANNELS]: 选择哪种LRN的方法ACROSS_CHANNELS 或者WITHIN_CHANNEL 2. Loss Layers 深度学习是通过最小化输出和目标的Loss来驱动学习。 2.1 Softmax 类型: SOFTMAX_LOSS 2.2 Sum-of-Squares / Euclidean 类型: EUCLIDEAN_LOSS 2.3 Hinge / Margin 类型: HINGE_LOSS 例子 # L1 Normlayers { name: loss type: HINGE_LOSS bottom: pred bottom: label}# L2 Normlayers { name: loss type: HINGE_LOSS bottom: pred bottom: label top: loss hinge_loss_param { norm: L2 }} 可选参数 norm [default L1]: 选择L1或者 L2范数 输入 n * c * h * wPredictions n * 1 * 1 * 1Labels 输出 1 * 1 * 1 * 1Computed Loss 2.4 Sigmoid Cross-Entropy 类型SIGMOID_CROSS_ENTROPY_LOSS 2.5 Infogain 类型INFOGAIN_LOSS 2.6 Accuracy and Top-k 类型ACCURACY  用来计算输出和目标的正确率事实上这不是一个loss而且没有backward这一步。 3. 激励层Activation / Neuron Layers 一般来说激励层是element-wise的操作输入和输出的大小相同一般情况下就是一个非线性函数。 3.1 ReLU / Rectified-Linear and Leaky-ReLU 类型: RELU 例子: layers { name: relu1 type: RELU bottom: conv1 top: conv1} 可选参数 negative_slope [default 0]:指定输入值小于零时的输出。 ReLU是目前使用做多的激励函数主要因为其收敛更快并且能保持同样效果。 标准的ReLU函数为max(x, 0)而一般为当x 0时输出x但x 0时输出negative_slope。RELU层支持in-place计算这意味着bottom的输出和输入相同以避免内存的消耗。 3.2 Sigmoid 类型: SIGMOID 例子: layers { name: encode1neuron bottom: encode1 top: encode1neuron type: SIGMOID} SIGMOID 层通过 sigmoid(x) 计算每一个输入x的输出函数如下图。 3.3 TanH / Hyperbolic Tangent 类型: TANH 例子: layers { name: encode1neuron bottom: encode1 top: encode1neuron type: SIGMOID} TANH层通过 tanh(x) 计算每一个输入x的输出函数如下图。 3.3 Absolute Value 类型: ABSVAL 例子: layers { name: layer bottom: in top: out type: ABSVAL} ABSVAL层通过 abs(x) 计算每一个输入x的输出。 3.4 Power 类型: POWER 例子 layers { name: layer bottom: in top: out type: POWER power_param { power: 1 scale: 1 shift: 0 }} 可选参数 power [default 1] scale [default 1] shift [default 0] POWER层通过 (shift scale * x) ^ power计算每一个输入x的输出。 3.5 BNLL 类型: BNLL 例子 layers { name: layer bottom: in top: out type: BNLL} BNLL (binomial normal log likelihood) 层通过 log(1 exp(x)) 计算每一个输入x的输出。 4. 数据层Data Layers 数据通过数据层进入Caffe数据层在整个网络的底部。数据可以来自高效的数据库LevelDB 或者 LMDB直接来自内存。如果不追求高效性可以以HDF5或者一般图像的格式从硬盘读取数据。 4.1 Database 类型DATA 必须参数 source:包含数据的目录名称 batch_size:一次处理的输入的数量 可选参数 rand_skip:在开始的时候从输入中跳过这个数值这在异步随机梯度下降SGD的时候非常有用 backend [default LEVELDB]: 选择使用 LEVELDB 或者 LMDB 4.2 In-Memory 类型: MEMORY_DATA 必需参数 batch_size, channels, height, width: 指定从内存读取数据的大小 The memory data layer reads data directly from memory, without copying it. In order to use it, one must call MemoryDataLayer::Reset (from C) or Net.set_input_arrays (from Python) in order to specify a source of contiguous data (as 4D row major array), which is read one batch-sized chunk at a time. 4.3 HDF5 Input 类型: HDF5_DATA 必要参数 source:需要读取的文件名 batch_size一次处理的输入的数量 4.4 HDF5 Output 类型: HDF5_OUTPUT 必要参数 file_name: 输出的文件名 HDF5的作用和这节中的其他的层不一样它是把输入的blobs写到硬盘 4.5 Images 类型: IMAGE_DATA 必要参数 source: text文件的名字每一行给出一张图片的文件名和label batch_size:  一个batch中图片的数量 可选参数 rand_skip 在开始的时候从输入中跳过这个数值这在异步随机梯度下降SGD的时候非常有用 shuffle [default false] new_height, new_width: 把所有的图像resize到这个大小 4.6 Windows 类型WINDOW_DATA 4.7 Dummy 类型DUMMY_DATA Dummy 层用于development 和debugging。具体参数DummyDataParameter。 5. 一般层Common Layers 5.1 全连接层Inner Product 类型INNER_PRODUCT 例子 layers { name: fc8 type: INNER_PRODUCT blobs_lr: 1 # learning rate multiplier for the filters blobs_lr: 2 # learning rate multiplier for the biases weight_decay: 1 # weight decay multiplier for the filters weight_decay: 0 # weight decay multiplier for the biases inner_product_param { num_output: 1000 weight_filler { type: gaussian std: 0.01 } bias_filler { type: constant value: 0 } } bottom: fc7 top: fc8} 必要参数 num_output (c_o)过滤器的个数 可选参数 weight_filler [default type: constant value: 0]参数的初始化方法 bias_filler偏置的初始化方法 bias_term [default true]指定是否是否开启偏置项 通过全连接层后的大小变化 输入n * c_i * h_i * w_i 输出n * c_o * 1 *1 5.2 Splitting 类型SPLIT Splitting层可以把一个输入blob分离成多个输出blobs。这个用在当需要把一个blob输入到多个输出层的时候。 5.3 Flattening 类型FLATTEN Flattening是把一个输入的大小为n * c * h * w变成一个简单的向量其大小为 n * (c*h*w) * 1 * 1。 5.4 Concatenation 类型CONCAT 例子 layers { name: concat bottom: in1 bottom: in2 top: out type: CONCAT concat_param { concat_dim: 1 }} 可选参数 concat_dim [default 1]0代表链接num1代表链接channels 通过全连接层后的大小变化 输入从1到K的每一个blob的大小n_i * c_i * h * w 输出 如果concat_dim 0: (n_1 n_2 ... n_K) *c_1 * h * w需要保证所有输入的c_i 相同。 如果concat_dim 1: n_1 * (c_1 c_2 ... c_K) * h * w需要保证所有输入的n_i 相同。 通过Concatenation层可以把多个的blobs链接成一个blob。 5.5 Slicing The SLICE layer is a utility layer that slices an input layer to multiple output layers along a given dimension (currently num or channel only) with given slice indices. 5.6 Elementwise Operations 类型ELTWISE 5.7 Argmax 类型ARGMAX 5.8 Softmax 类型SOFTMAX 5.9 Mean-Variance Normalization 类型MVN 6. 参考 Caffe
http://www.hkea.cn/news/14381972/

相关文章:

  • 深圳宝安做网站企业年金怎么查
  • 成都网站建设单位fifa17做任务网站
  • 网站如何做分享wordpress 数据库建立
  • 建设外贸商城网站网络营销是什么的产物
  • 12306网站多少钱做的网站建设 电话咨询
  • 可做生物试卷的网站装饰工程设计东莞网站建设
  • 邯郸有建网站吗哪个公司好些昆明网站设计制作公司
  • 动易网站后台编辑器无效问题让公司做网站要注意什么
  • 网站建设服务支持wordpress 非插件代码高亮
  • 网站开发进度计划是什么专业做酒类营销的网站
  • 制作一个简单网站的代码一个完整的樱花html代码
  • 微信网站推广网站怎么做竞价推广
  • 网站维护工作的基本内容wordpress分页导航插件
  • 网站建设 重庆网站模版是什么意思
  • 网站建设基础实验1网站keywords
  • 工业部网站备案怎样成立一个网站
  • 戴尔网站建设的目的php做网站后台
  • 网站开发总体流程图县级门户网站建设的报告
  • 用dw做音乐网站系统的代码网站验证码文件
  • 无锡网站建设哪家做网站下拉菜单设计
  • 做关于卖宠物饲料网站有什么名字吗全程营销网站建设公司
  • 南阳网站推广爱客crm网页版
  • 能利用双股铜芯电话线做网站吗峰峰网站建设
  • 万互网站建站怎么免费建立自己的网站
  • 做快消品看那些网站好邹城网站建设公司
  • 上海公司网站制作wordpress 短信登录密码错误
  • 滨州网站建设sdshiya北京网页设计好的公司
  • 杭州 高端网站定制哪个网站可以代做试题
  • php+网站开发+pdf素材网下载
  • 平面设计师如何做网站济南营销型网站建设公司