当前位置: 首页 > news >正文

如何免费建立官方网站做网站赤峰

如何免费建立官方网站,做网站赤峰,网站链群怎么做,广州网站备案拍照更多AI知识点总结见我的专栏#xff1a;【AI知识点】 AI论文精读、项目和一些个人思考见我另一专栏#xff1a;【AI修炼之路】 有什么问题、批评和建议都非常欢迎交流#xff0c;三人行必有我师焉#x1f601; 批归一化#xff08;Batch Normalization#xff0c;BN… 更多AI知识点总结见我的专栏【AI知识点】 AI论文精读、项目和一些个人思考见我另一专栏【AI修炼之路】 有什么问题、批评和建议都非常欢迎交流三人行必有我师焉 批归一化Batch NormalizationBN 是一种用于加速神经网络训练并提高模型稳定性的方法通过在每一层对神经网络中的激活值进行标准化使得每一层的输入保持在一个稳定的分布中从而缓解梯度消失和梯度爆炸的问题并加快训练过程。 1. 为什么需要批归一化 在神经网络训练过程中尤其是深度神经网络层与层之间的参数不断更新这导致网络中的每一层的输入分布会发生变化。这种现象被称为内部协变量偏移Internal Covariate Shift。它会导致训练变得更加困难因为每一层的输入分布不稳定会使得模型需要不断适应新的数据分布从而影响模型的训练速度。 为了解决这个问题批归一化被引入。批归一化通过将每一层的激活值标准化为均值为 0、方差为 1 的分布使得每一层的输入数据保持相对稳定的分布从而使得网络可以更快地学习和收敛。 2. 批归一化的基本步骤 批归一化的过程主要包括以下几个步骤 计算批次的均值 对于每一层的输入例如激活值 x x x计算其在当前 mini-batch 中的均值 μ B 1 m ∑ i 1 m x i \mu_B \frac{1}{m} \sum_{i1}^{m} x_i μB​m1​i1∑m​xi​ 其中 m m m 是 mini-batch 的样本数量 x i x_i xi​ 是第 i i i 个样本的输入。 计算批次的方差 接下来计算 mini-batch 中输入的方差 σ B 2 1 m ∑ i 1 m ( x i − μ B ) 2 \sigma_B^2 \frac{1}{m} \sum_{i1}^{m} (x_i - \mu_B)^2 σB2​m1​i1∑m​(xi​−μB​)2 对输入进行标准化 使用批次均值 μ B \mu_B μB​ 和方差 σ B 2 \sigma_B^2 σB2​ 对每个输入 x i x_i xi​ 进行标准化处理 x ^ i x i − μ B σ B 2 ϵ \hat{x}_i \frac{x_i - \mu_B}{\sqrt{\sigma_B^2 \epsilon}} x^i​σB2​ϵ ​xi​−μB​​ 其中 ϵ \epsilon ϵ 是一个很小的常数用来避免除以零的情况。 尺度变换和偏移 为了保持网络的表达能力批归一化还会引入可学习的参数 γ \gamma γ 和 β \beta β用于对标准化后的结果进行线性变换 y i γ x ^ i β y_i \gamma \hat{x}_i \beta yi​γx^i​β 其中 γ \gamma γ 是缩放参数 β \beta β 是偏移参数。这一步保证了即使数据经过归一化后网络仍然能够恢复原始的表示能力。 3. 批归一化的整体公式 结合上面几步批归一化的整体公式可以表示为 y i γ ⋅ x i − μ B σ B 2 ϵ β y_i \gamma \cdot \frac{x_i - \mu_B}{\sqrt{\sigma_B^2 \epsilon}} \beta yi​γ⋅σB2​ϵ ​xi​−μB​​β 在这个公式中 x i x_i xi​ 是神经网络层中的输入 μ B \mu_B μB​ 和 σ B 2 \sigma_B^2 σB2​ 是当前 mini-batch 的均值和方差 γ \gamma γ 和 β \beta β 是可学习的参数而 ϵ \epsilon ϵ 是一个防止除零的小常数。 4. 批归一化的位置 下图展示了批归一化在神经网络中的位置 图片来源https://medium.com/abheerchrome/batch-normalization-explained-1e78f7eb1e8a 下图对比了批归一化网络Batch Normalized Network 和标准神经网络Standard Network 在前向传播过程中的区别。 图片来源https://gradientscience.org/batchnorm/ x x x 是输入特征 W W W 是权重矩阵 y W ⋅ x y W \cdot x yW⋅x 是通过神经网络层隐藏层计算得到的线性输出也就是未经过激活函数的输出。在标准网络中这个 y y y 直接用于损失计算 L ^ \hat{\mathcal{L}} L^ 或者进入激活函数但在批归一化网络中会先对 y y y 进行标准化处理。批归一化后的值 z z z 再用于损失计算 L ^ \hat{\mathcal{L}} L^或者进入激活函数。 5. 训练与测试时的区别 批归一化的行为在训练阶段和测试阶段是不同的 训练阶段每个 mini-batch 内的数据被标准化使用 mini-batch 的均值和方差进行归一化。测试阶段由于测试时无法使用 mini-batch 的均值和方差因为测试是单独进行的因此在训练过程中通常会维护一个全局的均值和方差通过对所有 mini-batch 的均值和方差进行指数加权平均计算得出。在测试时使用这个全局均值和方差进行归一化而不是使用单个 mini-batch 的均值和方差。 6. 批归一化的优点 加快收敛速度批归一化能够稳定输入分布从而加快模型的收敛速度。在实际应用中批归一化常常使得模型在更少的迭代次数内达到同样甚至更好的效果。缓解梯度消失/爆炸问题通过将数据标准化批归一化可以有效防止梯度消失或梯度爆炸的问题这对于训练深层神经网络尤其重要。允许使用更大的学习率在梯度下降过程中批归一化减少了权重更新的波动因此可以使用更大的学习率从而进一步加速模型的训练。一定的正则化效果在一定程度上批归一化对每个 mini-batch 的操作引入了噪声这种噪声类似于 Dropout 的作用能够减少模型过拟合。 7. 批归一化的缺点 对小批量数据效果较差批归一化依赖于 mini-batch 内的均值和方差。当 mini-batch 的大小较小时均值和方差可能无法很好地代表整体数据分布从而影响归一化效果。引入额外的计算开销批归一化会增加额外的计算量特别是在进行大量卷积操作或多层网络时这可能会对训练时间造成一定影响。在某些模型中的表现不稳定批归一化虽然通常提高了模型的稳定性但在某些极端情况下特别是序列模型如 RNN中其表现可能不如其他正则化技术如 Layer Normalization 和 Group Normalization。 8. 批归一化和其变体的比较 图示 由于批归一化对小批量数据和序列模型效果不佳一些变体技术被提出下面这张图形象的解释了几种归一化方法的差别 图片来源https://arxiv.org/abs/1803.08494 这个图展示了四种不同的归一化方法在特征图张量上的操作方式。每个子图展示了一个三维的特征图张量其中 N 代表 batch 维度样本数量C 代表通道channel维度每个通道代表一个特征H, W 代表空间维度即图像的高度和宽度。 蓝色区域代表在归一化过程中使用相同均值和方差的像素点或区域不同的归一化方法在归一化时对不同维度的数据进行标准化。 Batch Norm 批归一化 在批次内所有样本的单个通道上进行归一化。适用场景适合大批量数据适用于大多数神经网络模型特别是在卷积神经网络CNN和全连接网络FCN中广泛使用。 Layer Norm 层归一化 在单个样本的所有通道上归一化。适用场景适合变长序列模型。主要用于循环神经网络RNN、自注意力模型如 Transformer等序列模型。 Instance Norm 实例归一化 在单个样本的单个通道上归一化。适用场景适合单样本输入的场景。主要用于图像生成任务特别是在图像风格转换任务中效果较好。 Group Norm 组归一化 在单个样本的多个通道按照通道分组上归一化。适用场景适合小批量数据。适用于卷积神经网络CNN中的小批量训练以及 mini-batch 太小无法使用批归一化的情况。特别是在计算资源有限的情况下表现出色。 9. 批归一化的实际应用 在深度学习模型中批归一化几乎已经成为标准组件之一。特别是在卷积神经网络CNN和全连接神经网络FCNN中批归一化的使用能显著提高模型训练速度和性能。 常见的应用场景包括 图像分类批归一化常用于卷积层之后以保证卷积输出的稳定性避免梯度爆炸。这种应用显著提高了像 ResNet、VGG 等经典图像分类模型的训练速度和准确性。生成对抗网络GANsGAN 模型中的 Generator 和 Discriminator 都需要稳定训练批归一化能帮助平衡两者的训练。深度神经网络中的每一层现代的神经网络模型几乎在每一层都使用批归一化。通常批归一化会被放置在全连接层或卷积层之后非线性激活函数之前。这种放置方式能最大程度地稳定激活值防止模型在深度训练中失去学习能力。 10. 批归一化的总结 批归一化Batch Normalization 是一种重要的神经网络正则化方法它通过标准化每一层的输入来加速神经网络的训练过程并提高模型的稳定性。其主要优势包括减少梯度消失和梯度爆炸、加快收敛速度并提供一定的正则化效果降低过拟合风险。批归一化在卷积神经网络和全连接神经网络中非常流行几乎是现代深度学习模型中的标准组件。
http://www.hkea.cn/news/14313970/

相关文章:

  • 建小公司网站要多少钱深圳设计公司办公室
  • 网站发帖百度收录做印刷品的素材网站
  • 网站访问速度 云主机南昌做网站哪家最好
  • html旅游网站模板江苏seo排名
  • 网站优化 代码商丘手机网站制作
  • HTML asp 网站wordpress更改主题名称
  • 百度不做网站外链是什么原因wordpress淘点金插件
  • 网站要做几个备案大连专业模板网站制作
  • 江门专业做网站o2o商超网站建设
  • 网站建设沟通话术做搜狗网站优化首页
  • 物流货运网站济南网站建设工资
  • 电子商务网站建设如何策划与实施wordpress 5.01不要升级
  • 网站开发建站免费的html模版下载
  • 网站开发立项网站开发 ssh 菜鸟
  • 建设网站站点有哪些步骤做一个网站完整的网页
  • 网站设计思路方案南昌网站建设专业公司
  • 网站支付宝网上支付功能怎么做自己做首饰的好网站
  • 公司企业网络推广优化网站是什么意思
  • 免费注册的网站电子商务企业网站制作
  • 网站建设 seo商情网打车软件app开发
  • 心悦会员免做卡网站爱站网
  • 伍佰亿搜索引擎网站系统门户网站建设 交流发言
  • 苏州网站制作排名优化几十万做网站平台
  • 红色网站呢怎样在赶集微网站做微招聘
  • 网站开发常用的开发工具企业邮箱怎么申请账号
  • 做网站学注册保险代理公司需要什么条件
  • 邯郸企业网站建设费用深圳市深企在线技术开发有限公司
  • 用图片做简单网站网络营销的主要传播渠道是
  • 云主机重装系统后网站重新部署吗做推文网站
  • 隆尧网站生活信息网站建设