当前位置: 首页 > news >正文

厦门的商城网站建设做微商截图的网站

厦门的商城网站建设,做微商截图的网站,马来西亚做网站,网站5g空间我们常用torch.nn来封装网络#xff0c;torch.nn为我们封装好了很多神经网络中不同的层#xff0c;如卷积层、池化层、归一化层等。我们会把这些层像是串成一个牛肉串一样串起来#xff0c;形成网络。 先从最简单的#xff0c;都有哪些层开始学起。 Convolution Layers -…我们常用torch.nn来封装网络torch.nn为我们封装好了很多神经网络中不同的层如卷积层、池化层、归一化层等。我们会把这些层像是串成一个牛肉串一样串起来形成网络。 先从最简单的都有哪些层开始学起。 Convolution Layers - 卷积层 torch.nn.Conv1d() 1维卷积层。 torch.nn.Conv1d(in_channels, out_channels, kernel_size, stride1, padding0, dilation1, groups1, biasTrue, padding_modezeros, deviceNone, dtypeNone)in_channels输入tensor的通道数 out_channels输出tensor的通道数 kernel_size卷积核的大小 stride步长 padding输入tensor的边界填充尺寸 dilation卷积核之间的间距下面这个图为dilation2默认为1 groups从输入通道到输出通道的阻塞连接数。in_channel和out_channel需要能被groups整除。更具体地 groups1时所有输入均与所有输出进行卷积groups2时该操作相当于并排设置两个卷积层每卷积层看到一半的输入通道产生一半的输出通道然后将两个卷积层连接起来。groupsin_channel时输入的每个通道都和相应的卷积核进行卷积 bias是否添加可学习的偏差值True为添加False为不添加。 padding_mode填充模式有以下取值zeros这个是默认值、reflect、replicate、circular。 import torch import torch.nn as nnm nn.Conv1d(in_channels16,out_channels33,kernel_size3,stride2) # input: 批大小为20每个数据通道为16size50 input torch.randn(20, 16, 50) output m(input) print(output.size())输出 # output: 批大小为20每个数据通道为33size24 torch.Size([20, 33, 24])torch.nn.Conv2d() 2维卷积层。 torch.nn.Conv2d(in_channels, out_channels, kernel_size, stride1, padding0, dilation1, groups1, biasTrue, padding_modezeros, deviceNone, dtypeNone)参数与Conv1d()基本一样不再赘述。 import torch import torch.nn as nnm nn.Conv2d(in_channels2,out_channels3,kernel_size3,stride2) input torch.randn(20, 2, 5, 6) output m(input) print(output.size())输出 torch.Size([20, 3, 2, 2])torch.nn.Conv3d() 3维卷积层。 torch.nn.Conv3d(in_channels, out_channels, kernel_size, stride1, padding0, dilation1, groups1, biasTrue, padding_modezeros, deviceNone, dtypeNone)参数与Conv1d()基本一样不再赘述。 import torch import torch.nn as nnm nn.Conv3d(in_channels2,out_channels3,kernel_size3,stride2) input torch.randn(20, 2, 4, 5, 6) output m(input) print(output.size())输出 torch.Size([20, 3, 1, 2, 2])torch.nn.ConvTranspose1d() 1维转置卷积层。 torch.nn.ConvTranspose1d(in_channels, out_channels, kernel_size, stride1, padding0, output_padding0, groups1, biasTrue, dilation1, padding_modezeros, deviceNone, dtypeNone)参数与Conv1d()基本一样不再赘述。 唯一不同的是output_padding与padding不同的是output_padding是输出tensor的每一个边外面填充的层数。 padding是输入tensor的每个边填充的层数 import torch import torch.nn as nnm nn.ConvTranspose1d(in_channels2,out_channels3,kernel_size3,stride1) input torch.randn(20, 2, 2) output m(input) print(output.size())输出 torch.Size([20, 3, 4])torch.nn.ConvTranspose2d() 2维转置卷积层。 torch.nn.ConvTranspose2d(in_channels, out_channels, kernel_size, stride1, padding0, output_padding0, groups1, biasTrue, dilation1, padding_modezeros, deviceNone, dtypeNone)参数与Conv1d()基本一样不再赘述。 import torch import torch.nn as nnm nn.ConvTranspose2d(in_channels2,out_channels3,kernel_size3,stride1) input torch.randn(20, 2, 2, 2) output m(input) print(output.size())输出 torch.Size([20, 3, 4, 4])torch.nn.ConvTranspose3d() 3维转置卷积层。 torch.nn.ConvTranspose3d(in_channels, out_channels, kernel_size, stride1, padding0, output_padding0, groups1, biasTrue, dilation1, padding_modezeros, deviceNone, dtypeNone)参数与Conv1d()基本一样不再赘述。 import torch import torch.nn as nnm nn.ConvTranspose3d(in_channels2,out_channels3,kernel_size3,stride1) input torch.randn(20, 2, 2, 2, 2) output m(input) print(output.size())输出 torch.Size([20, 3, 4, 4, 4])torch.nn.LazyConv1d() 1维延迟初始化卷积层当in_channel不确定时可使用这个层。 关于延迟初始化大家可以参考这篇文章我认为讲的很好 俱往矣… - 延迟初始化——【torch学习笔记】 torch.nn.LazyConv1d(out_channels, kernel_size, stride1, padding0, dilation1, groups1, biasTrue, padding_modezeros, deviceNone, dtypeNone)LazyConv1d没有in_channel参数。 这不代表这个层没有输入的通道而是在调用时自动适配并进行初始化。 引用文章中的一段代码改成LazyConv1d讲述使用方法。 import torch import torch.nn as nnnet nn.Sequential(nn.LazyConv1d(256, 2),nn.ReLU(),nn.Linear(9, 10) ) print(net) [net[i].state_dict() for i in range(len(net))]low torch.finfo(torch.float32).min / 10 high torch.finfo(torch.float32).max / 10 X torch.zeros([2, 20, 10], dtypetorch.float32).uniform_(low, high) net(X) print(net)输出 Sequential((0): LazyConv1d(0, 256, kernel_size(2,), stride(1,))(1): ReLU()(2): Linear(in_features9, out_features10, biasTrue) ) Sequential((0): Conv1d(20, 256, kernel_size(2,), stride(1,))(1): ReLU()(2): Linear(in_features9, out_features10, biasTrue) )可以看出未进行初始化时in_features0。只有传入参数使用网络后才会根据输入进行初始化。 torch.nn.LazyConv2d() 2维延迟初始化卷积层。 torch.nn.LazyConv2d(out_channels, kernel_size, stride1, padding0, dilation1, groups1, biasTrue, padding_modezeros, deviceNone, dtypeNone)torch.nn.LazyConv3d() 3维延迟初始化卷积层。 torch.nn.LazyConv3d(out_channels, kernel_size, stride1, padding0, dilation1, groups1, biasTrue, padding_modezeros, deviceNone, dtypeNone)torch.nn.LazyConvTranspose1d() 1维延迟初始化转置卷积层。 torch.nn.LazyConvTranspose1d(out_channels, kernel_size, stride1, padding0, output_padding0, groups1, biasTrue, dilation1, padding_modezeros, deviceNone, dtypeNone)torch.nn.LazyConvTranspose2d() 2维延迟初始化转置卷积层。 torch.nn.LazyConvTranspose2d(out_channels, kernel_size, stride1, padding0, output_padding0, groups1, biasTrue, dilation1, padding_modezeros, deviceNone, dtypeNone)torch.nn.LazyConvTranspose3d() 3维延迟初始化转置卷积层。 torch.nn.LazyConvTranspose3d(out_channels, kernel_size, stride1, padding0, output_padding0, groups1, biasTrue, dilation1, padding_modezeros, deviceNone, dtypeNone)torch.nn.Unfold() 从一个批次的输入张量中提取出滑动的局部区域块。 torch.nn.Unfold(kernel_size, dilation1, padding0, stride1)kernel_size滑动块的大小 dilation卷积核之间的间距(torch.nn.Conv1d中有图示) padding输入tensor的边界填充尺寸 stride滑块滑动的步长。 这里的输入必须是4维的tensor否则会报这样的错误 NotImplementedError: Input Error: Only 4D input Tensors are supported (got 2D)示例 import torch from torch import nnt torch.tensor([[[[1., 2., 3., 4.],[5., 6., 7., 8.],[9., 10., 11., 12.],[13., 14., 15., 16.],]]])unfold nn.Unfold(kernel_size(2, 2), dilation1, padding0, stride1) output unfold(t) print(output)输出 tensor([[[ 1., 2., 3., 5., 6., 7., 9., 10., 11.],[ 2., 3., 4., 6., 7., 8., 10., 11., 12.],[ 5., 6., 7., 9., 10., 11., 13., 14., 15.],[ 6., 7., 8., 10., 11., 12., 14., 15., 16.]]])torch.nn.Fold() Unfold()的逆操作。当Unfold()时出现滑块有重复覆盖时会导致结果和原来不一样。因为Fold()的过程中对于同一个位置的元素进行加法处理。 torch.nn.Fold(output_size, kernel_size, dilation1, padding0, stride1)下面是Unfold()和Fold()结合的代码Unfold()部分和上面代码相同。 import torch from torch import nnt torch.tensor([[[[1., 2., 3., 4.],[5., 6., 7., 8.],[9., 10., 11., 12.],[13., 14., 15., 16.]]]])unfold nn.Unfold(kernel_size(2, 2), dilation1, padding0, stride1) output unfold(t) print(output) fold nn.Fold(output_size(4, 4), kernel_size(2, 2)) out fold(output) print(out)输出 tensor([[[ 1., 2., 3., 5., 6., 7., 9., 10., 11.],[ 2., 3., 4., 6., 7., 8., 10., 11., 12.],[ 5., 6., 7., 9., 10., 11., 13., 14., 15.],[ 6., 7., 8., 10., 11., 12., 14., 15., 16.]]]) tensor([[[[ 1., 4., 6., 4.],[10., 24., 28., 16.],[18., 40., 44., 24.],[13., 28., 30., 16.]]]])
http://www.hkea.cn/news/14586971/

相关文章:

  • 福建省建设环卫协会网站上海网站推
  • 国外网站流量魔站建站系统哪家好
  • 批量网站建设合作协议企业网站设计报名
  • 做建材网站怎么做中国机械制造网
  • 网上哪个网站教做西点网站建设职位名称
  • 市城乡规划建设局网站设计制作小车视频
  • 网站系统繁忙是什么意思李沧区网站服务公司
  • 网站建立服务精品课程网站建设现状
  • 温州外贸网站建设七牛云 wordpress
  • 地图网站设计网站开发模式框架
  • 做社交网站网上培训机构
  • 建设企业网站哪个好wordpress退出函数
  • 西安有哪些家做网站的公司网店设计是做什么的
  • 建设部指定招标网站网站和微网站
  • linux网站如何做ip解析如何在南美做网站推广
  • 网站建设清单达内网站开发培训
  • 做相亲网站宣威市网站建设
  • 网站开发培训费企业融资流程
  • 合肥微信网站施工企业安全生产管理规范最新版
  • 可以免费建立网站吗网站排名关键词
  • codewars网站付费推广渠道有哪些
  • 南昌网站建设排行php电商网站开发贴吧
  • 网站上的用户注册怎么做的淘宝直播要先建设个网站吗
  • 自己做的美食分享到网站光华路网站建设
  • 免费做数学题的网站深圳哪家做网站
  • 网站开发项目介绍pptseo优化技术招聘
  • 金华网站建设价格国美网站建设的特点
  • 邳州做网站的公司郑州php网站建设
  • 公司网站建设服务费计入什么科目深圳规划建设局网站
  • 深圳最火的网站自己做自己的私人网站