当前位置: 首页 > news >正文

胶州住房和城乡建设厅网站网站开发需要经过的几个主要阶段

胶州住房和城乡建设厅网站,网站开发需要经过的几个主要阶段,网站建设 用什么语言,wordpress首页菜单怎么设置这里写目录标题1 Pytorch计算图和自动微分2 将单个数据从计算图中剥离 .detach3 使用with torch.go_grad(): 包含的代码段不会计算微分1 Pytorch计算图和自动微分 从功能上理解#xff1a; 计算图就是类似于数据结构中的无环有向图#xff0c;Pytorch中的计算图就是为了记录… 这里写目录标题1 Pytorch计算图和自动微分2 将单个数据从计算图中剥离 .detach3 使用with torch.go_grad(): 包含的代码段不会计算微分1 Pytorch计算图和自动微分 从功能上理解 计算图就是类似于数据结构中的无环有向图Pytorch中的计算图就是为了记录一个数据从开始到最后所作的操作和参数这样在进行反向传播时候(backward)就会有足够的参数去计算梯度得到最终值相较于操作过程中数据梯度之后再通过优化器(optimizer.step())对目标函数进行优化就几乎完成了一轮模型训练的目的。 将Tensor的requires_grad属性设置为True时Pytorch的torch.autograd会自动地追踪它的计算轨迹当需要计算微分的时候只需要对最终计算结果的Tensor调用backward方法中间所有计算节点的微分就会被保存在grad属性中 import torchx torch.arange(9, dtypetorch.float).view(3,3) print(x默认不缓存计算轨迹,x, x.requires_grad) y torch.randn(3,3, requires_gradTrue) print(y设置requires_grad属性,y, y.requires_grad) z torch.sum(torch.mm(x, y)) z.backward() print(得到Z, z, z.requires_grad) print(经过计算未保留x的梯度, x.grad) print(经过计算保留了y的梯度, y.grad)out: x默认不缓存计算轨迹 tensor([[0., 1., 2.],[3., 4., 5.],[6., 7., 8.]]) False y设置requires_grad属性 tensor([[-0.2810, -2.7142, 1.8053],[-0.6549, 1.0730, -1.9470],[ 0.5629, -0.0692, -0.7376]], requires_gradTrue) True 得到Z tensor(-32.7122, grad_fnSumBackward0) True 经过计算未保留x的梯度 None 经过计算保留了y的梯度 tensor([[ 9., 9., 9.],[12., 12., 12.],[15., 15., 15.]])从上面可以看出y设置了requires_grad为True时在计算过后Pytorch会缓存其梯度信息而x为设置该属性即未保存该梯度信息。 汇总 Tensor属性作用针对Tensor构造时的属性后期也可以输出查看device该节点运行的设备环境即CPU/GPUrequires_grad自动微分机是否需要对该节点求导缺省为False针对Tensor输出时的属性构造时不可指定用来输出查看grad输出节点对该节点的梯度缺省为Nonegrad_fn中间计算节点关于全体输入节点的映射记录了前向传播经过的操作。叶节点为Noneis_leaf该节点是否为叶节点 当需要计算中间数据(x)的梯度时只需要将最后的结果值进行backward()后再打印x.grad即可 2 将单个数据从计算图中剥离 .detach 一般在模型训练中计算评价指标时我们需要停止数据的计算轨迹缓存则可以使用.detach将数据从计算图中剥离出去这个是针对单个数据的。 import torch x torch.rand(3, 3, requires_gradTrue) w torch.ones(3, 3, requires_gradTrue) print(x) print(w) yy torch.mm(w, x) print(yy.requires_grad)detach_yy yy.detach() #一般模型中使用loss计算评价指标时都会用类似这样的式子将loss从计算图中剥离备份出去。 y torch.sum(yy) y.backward()print(进行剥离后detach_yy的属性, detach_yy.grad) print(x的梯度缓存, x.grad) print(w的梯度缓存, w.grad)out: tensor([[0.8037, 0.2443, 0.3994],[0.9879, 0.9484, 0.4035],[0.3057, 0.6682, 0.4186]], requires_gradTrue) tensor([[1., 1., 1.],[1., 1., 1.],[1., 1., 1.]], requires_gradTrue) True 进行剥离后detach_yy的属性 None x的梯度缓存 tensor([[3., 3., 3.],[3., 3., 3.],[3., 3., 3.]]) w的梯度缓存 tensor([[1.4474, 2.3398, 1.3925],[1.4474, 2.3398, 1.3925],[1.4474, 2.3398, 1.3925]])3 使用with torch.go_grad(): 包含的代码段不会计算微分 想必这个在模型测试阶段大家都会用之所以用这个是将模型测试阶段的微分不计算在模型中否则模型把测试集都学过了那以后拿什么进行模型评价呢 import torch x torch.rand(3, 3, requires_gradTrue) w torch.ones(3, 3, requires_gradTrue) y torch.sum(torch.mm(w, x)) print(正常缓存梯度信息, y.requires_grad)with torch.no_grad():y torch.sum(torch.mm(w, x))print(在with torch.no_grad中, y.requires_grad)out: 正常缓存梯度信息 True 在with torch.no_grad中 False
http://www.hkea.cn/news/14290580/

相关文章:

  • 网站备案查询工信部手机版做网站做本地服务器
  • 家居网站建设公司排名如何自建网站做淘客
  • php网站说明怎么做网站h汉狮
  • 企业网站优化多少钱天津广告公司排行榜
  • 3维网站制作技术用wordpress建站要不要用宝塔
  • 手机网站与appwordpress 挂马清理
  • html购物网站模板东莞市建设网站首页
  • 开发网站现实网络传输失败网站建设需要建站公司沟通哪些
  • 美团网站建设规划书重庆网站建设近重庆零臻科技
  • 做采购 通常在什么网站看广州有什么好玩的室内
  • 京山网站制作网址导航推荐
  • 用狐狸做logo的网站网站建设数据处理
  • 安徽省建设监理有限公司网站做网站被网警找
  • 企业网站推广方法实验报告常德建设网站公司
  • 门户网站做有效的网站优化
  • 国家城乡建设规划部网站程序小程序开发
  • dede 网站名称不显示网页视频下载网址
  • 山西省建设银行网站淘宝运营培训多少钱
  • 关于网站建设的简历模板嘉兴seo网站优化
  • 手机网站设计作品欣赏镇江教育云平台网站建设
  • 贵州住房建设厅网站学编程多久可以写游戏辅助
  • 网站制作公司昆明企业培训课程设置
  • 做什麽网站有前景10个神奇的.htaccess技巧(for wordpress)
  • 网站的空间是服务器吗python编程入门
  • 企业网站建设公司 末路号卡分销系统搭建
  • 网站建设招标书品牌推广策略包括哪些内容
  • 免费网站安全软件大全游戏旅游官网
  • 即墨有做网站的吗中国新闻社招聘2023年
  • 网站企业建站如何推广微信公众号
  • 做电影网站用什么服务器比较好攻击网站方法