当前位置: 首页 > news >正文

iis建立好网站 怎么打开焦作网站设计

iis建立好网站 怎么打开,焦作网站设计,农村电商发展现状分析,如何做网站卖家具PyTorch AMP 混合精度中的 scale 函数解析 混合精度训练#xff08;AMP, Automatic Mixed Precision#xff09;是深度学习中常用的技术#xff0c;用于提升训练效率并减少显存占用。在 PyTorch 的 AMP 模块中#xff0c;GradScaler 类负责动态调整和管理损失缩放因子AMP, Automatic Mixed Precision是深度学习中常用的技术用于提升训练效率并减少显存占用。在 PyTorch 的 AMP 模块中GradScaler 类负责动态调整和管理损失缩放因子以解决 FP16 运算中的数值精度问题。而 scale 函数是 GradScaler 的一个重要方法用于将输出的张量按当前缩放因子进行缩放。 本文将详细解析 scale 函数的作用、代码逻辑以及 apply_scale 子函数的递归作用。 函数代码回顾 以下是 scale 函数的完整代码 Source: anaconda3/envs/xxx/lib/python3.10/site-packages/torch/amp/grad_scaler.py torch 2.4.0cu121版本 def scale(self,outputs: Union[torch.Tensor, Iterable[torch.Tensor]], ) - Union[torch.Tensor, Iterable[torch.Tensor]]:Multiplies (scales) a tensor or list of tensors by the scale factor.Returns scaled outputs. If this instance of :class:GradScaler is not enabled, outputs are returnedunmodified.Args:outputs (Tensor or iterable of Tensors): Outputs to scale.if not self._enabled:return outputs# Short-circuit for the common case.if isinstance(outputs, torch.Tensor):if self._scale is None:self._lazy_init_scale_growth_tracker(outputs.device)assert self._scale is not Nonereturn outputs * self._scale.to(deviceoutputs.device, non_blockingTrue)# Invoke the more complex machinery only if were treating multiple outputs.stash: List[_MultiDeviceReplicator] [] # holds a reference that can be overwritten by apply_scaledef apply_scale(val: Union[torch.Tensor, Iterable[torch.Tensor]]):if isinstance(val, torch.Tensor):if len(stash) 0:if self._scale is None:self._lazy_init_scale_growth_tracker(val.device)assert self._scale is not Nonestash.append(_MultiDeviceReplicator(self._scale))return val * stash[0].get(val.device)if isinstance(val, abc.Iterable):iterable map(apply_scale, val)if isinstance(val, (list, tuple)):return type(val)(iterable)return iterableraise ValueError(outputs must be a Tensor or an iterable of Tensors)return apply_scale(outputs)1. 函数作用 scale 函数的主要作用是将输出张量outputs按当前的缩放因子self._scale进行缩放。它支持以下两种输入 单个张量直接将缩放因子乘以张量。张量的可迭代对象如列表或元组递归地对每个张量进行缩放。 当 AMP 功能未启用时即 self._enabled 为 Falsescale 函数会直接返回原始的 outputs不执行任何缩放操作。 使用场景 放大梯度在反向传播之前放大输出张量的数值以减少数值舍入误差对 FP16 计算的影响。支持多设备通过 _MultiDeviceReplicator 支持张量分布在多个设备如多 GPU的场景。 2. 核心代码解析 (1) 短路处理单个张量 当输入 outputs 是单个张量torch.Tensor时函数直接对其进行缩放 if isinstance(outputs, torch.Tensor):if self._scale is None:self._lazy_init_scale_growth_tracker(outputs.device)assert self._scale is not Nonereturn outputs * self._scale.to(deviceoutputs.device, non_blockingTrue)逻辑解析 如果缩放因子 self._scale 尚未初始化则调用 _lazy_init_scale_growth_tracker 方法在指定设备上初始化缩放因子。使用 outputs * self._scale 对张量进行缩放。这里使用了 to(deviceoutputs.device) 确保缩放因子与张量在同一设备上。 这是单个张量输入的快速路径处理。 (2) 多张量递归处理逻辑 当输入为张量的可迭代对象如列表或元组时函数调用子函数 apply_scale 进行递归缩放 stash: List[_MultiDeviceReplicator] [] # 用于存储缩放因子对象def apply_scale(val: Union[torch.Tensor, Iterable[torch.Tensor]]):if isinstance(val, torch.Tensor):if len(stash) 0:if self._scale is None:self._lazy_init_scale_growth_tracker(val.device)assert self._scale is not Nonestash.append(_MultiDeviceReplicator(self._scale))return val * stash[0].get(val.device)if isinstance(val, abc.Iterable):iterable map(apply_scale, val)if isinstance(val, (list, tuple)):return type(val)(iterable)return iterableraise ValueError(outputs must be a Tensor or an iterable of Tensors)return apply_scale(outputs)apply_scale 子函数的作用 张量处理 如果 val 是单个张量检查 stash 是否为空。如果为空初始化缩放因子对象 _MultiDeviceReplicator并存储在 stash 中。使用 stash[0].get(val.device) 获取对应设备上的缩放因子并对张量进行缩放。 递归处理可迭代对象 如果 val 是一个可迭代对象调用 map(apply_scale, val)对其中的每个元素递归地调用 apply_scale。如果输入是 list 或 tuple则保持其原始类型。 类型检查 如果 val 既不是张量也不是可迭代对象抛出错误。 3. apply_scale 是递归函数吗 是的apply_scale 是一个递归函数。 递归逻辑 当输入为嵌套结构如张量的列表或列表中的列表时apply_scale 会递归调用自身将缩放因子应用到最底层的张量。递归的终止条件是 val 为单个张量torch.Tensor。 示例 假设输入为嵌套张量列表 outputs [torch.tensor([1.0, 2.0]), [torch.tensor([3.0]), torch.tensor([4.0, 5.0])]] scaled_outputs scaler.scale(outputs)递归处理过程如下 对 outputs 调用 apply_scale 第一个元素是张量 torch.tensor([1.0, 2.0])直接缩放。第二个元素是列表递归调用 apply_scale。 进入嵌套列表 [torch.tensor([3.0]), torch.tensor([4.0, 5.0])] 第一个元素是张量 torch.tensor([3.0])缩放。第二个元素是张量 torch.tensor([4.0, 5.0])缩放。 4. _MultiDeviceReplicator 的作用 _MultiDeviceReplicator 是一个工具类用于在多设备场景下管理缩放因子对象的复用。它根据张量所在的设备返回正确的缩放因子。 当张量分布在多个设备如 GPU时_MultiDeviceReplicator 可以高效地为每个设备提供所需的缩放因子避免重复初始化。 总结 scale 函数是 AMP 混合精度训练中用于梯度缩放的重要方法其作用是将输出张量按当前缩放因子进行缩放。通过递归函数 apply_scale该函数能够处理嵌套的张量结构同时支持多设备场景。 关键点总结 快速路径单张量输入的情况下直接进行缩放。递归处理对于张量的嵌套结构递归地对每个张量进行缩放。设备管理通过 _MultiDeviceReplicator 支持多设备场景。 通过 scale 函数PyTorch 的 AMP 模块能够高效地调整梯度数值范围提升混合精度训练的稳定性和效率。 后记 2025年1月2日15点47分于上海在GPT4o大模型辅助下完成。
http://www.hkea.cn/news/14499171/

相关文章:

  • 贵州建设厅监理协会网站百度账号找回
  • 如何提高网站收录量专业网站设计制合肥作
  • 西青做网站网站网站代理可以做不
  • 个人网站备案所需材料网站开发开账务处理
  • 奉贤品牌网站建设代理网络是什么
  • 网站开发的工作需要什么材料企业做推广有用吗
  • 网络营销网站建设案例房地产公司网站建设与推广方案
  • 在元典公司做网站有合同吗如何在各个购物网站之间做差价
  • 国内室内设计网站推荐网站的宣传推广
  • 网站后台 全局配置网络营销管理培训
  • 有什么做任务的网站吗微商目前十大火爆产品
  • 现在网站开发模式建设集团简介
  • 江苏南京建设厅网站wordpress系统搭建
  • 整合营销网站建设帮朋友做网站不给钱
  • 可以做用户画像的网站wordpress头像函数
  • 好的专业网站建设公司免费设计logo效果图
  • 生物医药网站建设好用的wordpress
  • 成都访问公司网站wordpress批量该连接
  • 公司网站建设文章厦门网页设计公司价格
  • 网站建设需要了解哪些方面建站塔山双喜
  • 网站做兼容处理怎么设置阿里巴巴做公司网站
  • 网站建设项目概况网络营销包括哪些内容
  • 做网站需要用什么系统网络技术培训班多少钱
  • 建筑公司网站功能表建设网站要服务器
  • 什么网站可以做试题h5前端开发
  • 浏阳市商务局网站溪江农贸市场建设梅州市网站制作
  • 如何获取网站备案号h5页面制作免费平台
  • 关于英文网站建设的请示wordpress模板在哪里买
  • 广东网站建设制作广东省自然资源厅事务中心
  • 网站怎么做伪静态王野苏婉卿