当前位置: 首页 > news >正文

保定 营销型网站建设网站开发三层架构的系统

保定 营销型网站建设,网站开发三层架构的系统,深圳网站建设公司pestl分析,企业网站 源码文章目录 1、概述2、BN层3、LN层4、Pytorch的实现5、BN层和LN层的对比 1、概述 归一化(Normalization) 方法#xff1a;指的是把不同维度的特征#xff08;例如序列特征或者图像的特征图等#xff09;转换为相同或相似的尺度范围内的方法#xff0c;比如把数据特征映射到[… 文章目录 1、概述2、BN层3、LN层4、Pytorch的实现5、BN层和LN层的对比 1、概述 归一化(Normalization) 方法指的是把不同维度的特征例如序列特征或者图像的特征图等转换为相同或相似的尺度范围内的方法比如把数据特征映射到[0, 1]或[−1, 1]区间内或者映射为服从均值为0、方差为1的标准正态分布。那为什么要进行归一化 样本特征由于来源和度量单位的不同或者经过多个卷积层处理后导致不同来源或者不同卷积层的输入特征尺度存在较大差异模型的优化方向可能会被尺度较大的特征所主导。而进行归一化可以使得尺度大致处于同一范围内从而有利于模型的训练和优化。 BN层(Batch Normalization)是在不同样本之间进行归一化。LN层(Layer Normalization)是在同一样本内部进行归一化。以下的图简单展示了二者的区别 参考链接https://blog.csdn.net/qq_44397802/article/details/128452207 2、BN层 下图很清晰的解释了BN层由于是Batch Normalization那么简单来说就是针对Batch中的不同样本之间求均值和标准差再做归一化 1如下图针对神经元的输出进行BN确定Batch size为N但是不同类型样本的维度可能不一样下图中维度为1例如图像经过卷积以后维度为C × \times ×H × \times ×W 2不论维度为多少各个样本之间的维度是相同的因此针对不同样本之间的对应维度计算出均值和标准差肯定与每个样本的维度相同下图中均值和标准差都为一维对于图像均值和标准差的维度为C × \times ×H × \times ×W 3针对每个神经元训练一组可学习的参数 γ \gamma γ和 β \beta β用于对输出的每个响应值做缩放和平移。 4注意如果样本为一维可学习参数的组数与输出的响应值的数量相等也与神经元的个数相等如果样本是图像输入为N × \times ×C1 × \times ×H × \times ×W卷积核个数为C2那么输出为N × \times ×C2 × \times ×H × \times ×W因此可学习参数的组数与输出通道数相等为C2也与卷积核个数相等。 5所以简单来说可学习参数的组数就与通道数相等。 3、LN层 一般来说层归一化所做的就是对于图像即输入为N × \times ×C × \times ×H × \times ×W的特征图在每个样本内部计算所有像素点的均值和标准差并针对每个像素点训练一组可学习参数 γ \gamma γ和 β \beta β用于进行缩放和平移以归一化到同一范围内。 如下图所示针对的是一个样本中的所有通道内的所有像素。也就是说和Batch无关。 因此可学习参数的组数就等于C × \times ×H × \times ×W。 计算公式 4、Pytorch的实现 BN层的实现 torch.nn.BatchNorm2d(num_features, eps1e-05, momentum0.1, affineTrue, track_running_statsTrue, deviceNone, dtypeNone)num_features输入尺寸为(N,C,H,W)则该值为CLN层的实现 torch.nn.LayerNorm(normalized_shape, eps1e-05, elementwise_affineTrue, deviceNone, dtypeNone)1normalized_shape归一化的尺寸输入的尺寸必须符合[∗×normalized_shape[0]×normalized_shape[1]×…×normalized_shape[−1]] 如果为单个整数则对最后一维进行归一化 2elementwise_affine是否具有可学习的参数默认为True如下为BN和LN层的实现以及参数量的计算 import torch from torch import nn# NLP Example batch, sentence_length, embedding_dim 20, 5, 10 embedding torch.randn(batch, sentence_length, embedding_dim) layer_norm nn.LayerNorm(embedding_dim) print(layer_norm) param_num sum([param.numel() for param in layer_norm.parameters()]) print(param_num) output_embed layer_norm(embedding) print(output_embed.shape)输出为 LayerNorm((10,), eps1e-05, elementwise_affineTrue) 20 torch.Size([20, 5, 10])import torch from torch import nn# Image Example N, C, H, W 20, 5, 10, 10 input0 torch.randn(N, C, H, W) # Normalize over the last three dimensions (i.e. the channel and spatial dimensions) layer_norm nn.LayerNorm([C, H, W]) # 参数量为C*H*W*2 print(layer_norm) param_num sum([param.numel() for param in layer_norm.parameters()]) print(param_num) output layer_norm(input0) print(output.shape)input1 torch.randn(N, C, H, W) batch_norm nn.BatchNorm2d(C) # 参数量为C*2 print(batch_norm) param_num1 sum([param.numel() for param in batch_norm.parameters()]) print(param_num1) output1 batch_norm(input1) print(output1.shape)输出为 LayerNorm((5, 10, 10), eps1e-05, elementwise_affineTrue) 1000 torch.Size([20, 5, 10, 10]) BatchNorm2d(5, eps1e-05, momentum0.1, affineTrue, track_running_statsTrue) 10 torch.Size([20, 5, 10, 10])5、BN层和LN层的对比 简单对比如下 参考链接https://blog.csdn.net/hymn1993/article/details/122719043
http://www.hkea.cn/news/14545921/

相关文章:

  • 南沙定制型网站建设龙游网站建设
  • 五金配件店 东莞网站建设企业用什么做网站
  • 深圳建设集团网站宁波建设工程学校网站
  • 网站首页页面设计多少钱有域名了怎么建站
  • 网站建设方案哪家好 推荐seoul是啥意思
  • 上海做网站公个人博客建站wordpress
  • 网站界面设计实训总结网络推广培训一对一
  • 网站建设与架构男友实验漯河市建设监理协会网站
  • 创建网站要多长时间宁波信息港
  • 网站建设都有什么功能一个静态网站开发考虑什么
  • 山西住房和建设厅网站免费发布信息的软件
  • 诸暨做网站国家高新技术企业认定工作网
  • 移动网站开发与维护必应网站首页的图片怎么做的
  • 干净简约的网站wordpress 一级目录下
  • 网站建设是固定资产还是列费用网络架构需求
  • 广州网站建设信息科技有限公司最新新闻热点事件短篇
  • php网站怎么建设廉政建设网评文章网站
  • 佛山建站公司哪家好自己有个服务器 怎样做网站
  • 甘肃省建设工程安质局网站不付费免费网站
  • 义乌企业网站网页制作课程
  • 重庆网站推seo的优化原理
  • 廊坊开发网站公司安徽seo推广公司
  • 网站建设前期策划方案深圳遗像制作
  • 网站友情链接自动上链wordpress网站如何添加栏目
  • 公司网站制作招聘昆明网站建设 昆明光硕
  • 医疗器械做网站到哪里先备案厦门网站关键词推广
  • 网站开发前景好吗重庆市工程建设交易中心网站
  • 网站空间域名免费秦皇岛北京网站建设
  • 个人购物网站 怎么建wordpress企业新闻
  • 学校招聘教师网站建设贵阳百度推广电话