当前位置: 首页 > news >正文

网站上动画视频怎么做揭阳购物网站开发设计

网站上动画视频怎么做,揭阳购物网站开发设计,成都手机微信网站建设报价,肥西网站推广公司1.自动微分概念 自动微分#xff08;Automatic Differentiation#xff0c;AD#xff09;是一种利用计算机程序自动计算函数导数的技术#xff0c;它是机器学习和优化算法中的核心工具#xff08;如神经网络的梯度下降#xff09; 2.梯度的计算 训练神经网络时#x…1.自动微分概念 自动微分Automatic DifferentiationAD是一种利用计算机程序自动计算函数导数的技术它是机器学习和优化算法中的核心工具如神经网络的梯度下降 2.梯度的计算 训练神经网络时最常用的算法就是反向传播。在该算法中参数模型权重会根据损失函数关于对应参数的梯度进行调整。为了计算这些梯度PyTorch内置了名为 torch.autograd 的微分模块。计算梯度就是为了更新权重以下是计算流程 计算公式 ① 梯度下降法公式: w w - r*grad (r是学习率, grad是梯度值) 即下一个点 起始点 - 学习率*梯度 ② w和b一定是可自动微分的张量, 类型是float类型    需要设置 torch.tensor(requries_gradTrue) 注  自动微分的张量不能转换成numpy数组, 通过.detach()张量剥离成不自动微分, 可以转换 单轮 # 导包 import torch# TODO 自动微分模块主要用于梯度计算!!! # 定义权重 requires_gradTrue:开启自动微分 w torch.tensor([10, 20], requires_gradTrue, dtypetorch.float) # 定义损失函数(loss,cost,criterion...) loss 2 * w ** 2 # 自动微分求梯度,自动更新梯度 loss.sum().backward() # 格式化输出 print(f当前权重: {w.data},固定学习率:{0.01} 更新后梯度: {w.grad},下一个权重: {w.data - 0.01 * w.grad}) # TODO 手动更新权重 # 公式: w1 w0 - learning_rate * grad w.data w.data - 0.01 * w.grad 当前权重: tensor([10., 20.]),固定学习率:0.01 更新后梯度: tensor([40., 80.]),下一个权重: tensor([ 9.6000, 19.2000])多轮自动微分 # 导包 import torch# TODO 自动微分模块主要用于梯度计算!!! # 定义权重 requires_gradTrue:开启自动微分 w torch.tensor(10, requires_gradTrue, dtypetorch.float) # 打印首次默认梯度 print(f初始权重: {w.data},初始梯度: {w.grad}) # 初始梯度None # TODO 定义遍历轮次 epochs 500 # TODO 开始遍历 for epoch in range(epochs):# 定义损失函数(自定义即可loss,cost,criterion...)loss w ** 2 20# loss 2 * w ** 2# TODO 注意: 默认梯度是累加的,所以每个轮次需要在自动微分之前进行清零!!!if w.grad is not None:w.grad.zero_() # 后续使用优化器清零# 自动微分求梯度,自动更新梯度loss.sum().backward()# 格式化输出print(f当前轮次:{epoch 1} 当前权重: {w.data},固定学习率:{0.01} 更新后梯度: {w.grad},下一个权重: {w.data - 0.01 * w.grad})# TODO 手动更新权重# 公式: w1 w0 - learning_rate * gradw.data w.data - 0.01 * w.grad代码量太多结果只放最开始和结束的权重 初始权重: 10.0,初始梯度: None 当前轮次:1 当前权重: 10.0,固定学习率:0.01 更新后梯度: 20.0,下一个权重: 9.800000190734863 当前轮次:500 当前权重: 0.000418612064095214,固定学习率:0.01 更新后梯度: 0.000837224128190428,下一个权重: 0.00041023982339538634推导w,b梯度 # 导包 import torch# 准备x训练数据 x torch.ones(2, 5) print(x) # 准备y训练数据 y torch.zeros(2, 3) print(y) # 准备w权重矩阵,开启自动微分!!! w torch.randn(5, 3, requires_gradTrue) print(w) # 准备b偏置矩阵,开启自动微分!!! b torch.randn(3, requires_gradTrue) print(b) print() # TODO 最终目的根据上述数据,使用自动微分推导w和b的梯度 # 1.首先获取损失函数 loss_fn torch.nn.MSELoss() # 2.然后,计算预测值- zwxb 注意: 这里面的wx是矩阵乘法需要遵循 (n,m)*(m,p)(n,p) z x.matmul(w) b # 3.接着,根据损失函数计算损失值 loss loss_fn(z, y) # 4.最后,反向传播推导更新梯度 loss.sum().backward() # TODO 打印更新后w和b梯度 print(fw.grad: {w.grad}) print(fb.grad: {b.grad}) [1., 1., 1., 1., 1.]]) tensor([[0., 0., 0.],[0., 0., 0.]]) tensor([[ 0.5068, 0.7041, -0.3873],[ 0.2316, -0.6001, -2.0265],[ 0.7206, -0.3271, -1.6952],[ 0.0378, 0.3277, -0.1473],[-0.9443, -0.8589, 0.6169]], requires_gradTrue) tensor([-0.0277, 0.5842, -0.5767], requires_gradTrue)w.grad: tensor([[ 0.3498, -0.1134, -2.8108],[ 0.3498, -0.1134, -2.8108],[ 0.3498, -0.1134, -2.8108],[ 0.3498, -0.1134, -2.8108],[ 0.3498, -0.1134, -2.8108]]) b.grad: tensor([ 0.3498, -0.1134, -2.8108])
http://www.hkea.cn/news/14346935/

相关文章:

  • 高端网站建设郑州wordpress如何添加关键词和描述
  • IT做网站工资怎么样windows图标wordpress
  • 临沂h5建站网站前台设计工具
  • 湘潭网站开发网站 绝对路径 相对路径
  • 有没有代加工的网站上海网站代优化
  • 官方网站页面尺寸可以免费建立网站吗
  • 微网站建设 合同网站怎么做的有创意
  • 医疗网站建设行情微网站怎么注册
  • 奉节做网站十大传媒公司
  • 关于网站建设的英文书籍东莞品牌网站建设多少钱
  • 四川住房建设部网站抖音小程序定制
  • 如何创建免费网站个人做跨境电商的平台网站
  • 成都网站免费制作搜索引擎网站的结构
  • 什么是新媒体运营南宁seo结算
  • 新安县住房和城乡建设局网站网站建设中数据安全研究
  • 做3d打印网站六安杂谈百姓畅言
  • 免费的x网站域名手机触屏网站制作软件
  • 网站的域名做邮箱新媒体管家wordpress
  • asp.ne做网站html 音乐网站
  • 网站为什么要服务器厦门做网站最好的公司有哪些
  • 网站快照怎么更新百度公司网站排名怎么做
  • 网站建设总结ppthtml静态网站开发个人博客
  • 网站安全检测工具网站站内优化方案
  • 北京网站建设公司排行吴江区城乡建设局网站
  • 篡改 网站 支付接口wordpress淘宝客手机
  • 合肥网站建设网站推广页网站设计
  • 怎么注册网站黑龙江建设网安全员考试报名
  • 网站 备案规定wordpress模板 图片站
  • 衡阳建设学校官方网站想做网站选什么专业
  • 微信建立免费网站吗做一个综合商城网站多少钱