当前位置: 首页 > news >正文

网站模板免费下载phpsap仓库管理系统

网站模板免费下载php,sap仓库管理系统,网站开发可选择的方案,深圳ccd设计公司官网英伟达结构化剪枝工具Nvidia Apex Automatic Sparsity [ASP]#xff08;1#xff09;——使用方法 Apex是Nvdia维护的pytorch工具库#xff0c;包括混合精度训练和分布式训练#xff0c;Apex的目的是为了让用户能够更早的使用上这些“新鲜出炉”的训练工具。ASP#xff0…英伟达结构化剪枝工具Nvidia Apex Automatic Sparsity [ASP]1——使用方法 Apex是Nvdia维护的pytorch工具库包括混合精度训练和分布式训练Apex的目的是为了让用户能够更早的使用上这些“新鲜出炉”的训练工具。ASPAutomatic Sparsity是Nvidia Apex模块中用于模型稀疏剪枝的算法 项目地址NVIDIA/apex: A PyTorch Extension: Tools for easy mixed precision and distributed training in Pytorch (github.com) 本文主要介绍的是ASP中的一个用于模型剪枝的模块ASP(Automatic sparsity)该模块仅仅向python模型训练文件中添加两行代码来实现模型的24稀疏剪枝同时还可以通过开启通道置换算法将绝对值较大的参数进行保留以求对模型精度的影响最小化。 项目地址项目 论文链接论文 Installation 从github clone源码安装需要checkout到23.05的tag git clone https://github.com/NVIDIA/apex.git cd apex git checkout 23.05 pip install -v --disable-pip-version-check --no-cache-dir --global-option--cpp_ext --global-option--cuda_ext --global-option--permutation_search ./Usage 使用ASP对模型进行稀疏化只需要两步 # 1. 导入sparsity模块 from apex.contrib.sparsity import ASP # 2. 使用ASP来模型和优化器进行稀疏化 ASP.prune_trained_model(model, optimizer)prune_trained_model函数会计算出稀疏mask并将其施加在模型的权重上。 整体而言通常需要在对模型稀疏化后重新进行训练整个过程可以表示为 ASP.prune_trained_model(model, optimizer)x, y DataLoader(args) for epoch in range(epochs):y_pred model(x)loss loss_function(y_pred, y)loss.backward()optimizer.step()torch.save(...)非标准用法 ASP还可以用来为模型生成稀疏的随机化参数从而进行更加复杂高级的实验如果在两个step之间重新计算权重的稀疏矩阵可以通过在训练的step之间调用ASP.recompute_sparse_masks函数来为模型重新生成稀疏mask。 Channel Permutation 该项目还可以通过开启通道置换算法来为结构化稀疏后的模型保留最大的精度值。 通道置换算法顾名思义就是通过沿着权重矩阵的通道维度进行置换并对其周围的模型层进行适当调整。 如果开启通道置换算法那么最终的模型精度与置换算法的质量之间存在很大关系置换的过程可以通过Apex CUDA拓展来进行加速否则时间会非常的久。 在Installation步骤中参数--global-option--permutation_search即是用于安装permutation search CUDA extension 。 如果不希望开启通道置换算法可以在ASP.init_model_for_pruning方法中将参数allow_permutation的值设置为False即可这一点在后续的源代码分析中也会提到。 需要注意的是当使用多个GPU时需要为所有的GPU设置相同的随机种子通过permutation_lib.py中的 set_identical_seed来进行设置。 import torch import numpy import randomtorch.manual_seed(identical_seed) torch.cuda.manual_seed_all(identical_seed) numpy.random.seed(identical_seed) random.seed(identical_seed) torch.backends.cudnn.deterministic True torch.backends.cudnn.benchmark FalseTips 在使用ASP对一个新的未经过稀疏的推理模型启用结构化稀疏时需要同时调用init_model_for_pruning和compute_sparse_masks方法。init_model_for_pruning会为模型层添加新的mask buffer用于保存compute_sparse_masks生成的mask因此调用了compute_sparse_masks后的模型的state_dict会比之前多出一些数据这些数据均以_mma_mask结尾的名字进行命名。对于已经使用ASP enable了结构化稀疏的模型在保存后重新加载时需要先创建一个新的模型并调用init_model_for_pruning方法为模型添加mask buffer后再load模型的state_dict否则因为新模型的state_dict和之前保存的state_dict不同而报错。 Example: 写了一个简单的Conv-FC网络训练后使用ASP进行剪枝随后再次进行训练 import torch import torch.nn as nn import torch.optim as optim import torchvision import torchvision.transforms as transforms from apex.contrib.sparsity import ASP# 定义卷积神经网络模型 class ConvNet(nn.Module):def __init__(self):super(ConvNet, self).__init__()self.conv1 nn.Conv2d(1, 16, 3, padding1)self.relu1 nn.ReLU()self.pool1 nn.MaxPool2d(2, 2)self.conv2 nn.Conv2d(16, 32, 3, padding1)self.relu2 nn.ReLU()self.pool2 nn.MaxPool2d(2, 2)self.fc1 nn.Linear(32 * 7 * 7, 128)self.relu3 nn.ReLU()self.fc2 nn.Linear(128, 10)self.sig nn.Sigmoid()def forward(self, x):x self.pool1(self.relu1(self.conv1(x)))x self.pool2(self.relu2(self.conv2(x)))x x.view(-1, 32 * 7 * 7)x self.relu3(self.fc1(x))x self.fc2(x)x self.sig(x)return xdef train_loop(model, optimizer, criterion):num_epochs 1for epoch in range(num_epochs):running_loss 0.0for i, data in enumerate(trainloader, 0):inputs, labels data[0].to(device), data[1].to(device)optimizer.zero_grad()outputs model(inputs)loss criterion(outputs, labels)loss.backward()optimizer.step()running_loss loss.item()if i % 100 99:print(fEpoch [{epoch1}/{num_epochs}], Batch [{i1}/{len(trainloader)}], Loss: {running_loss/100:.4f})running_loss 0.0def val(model):correct 0total 0model.eval()with torch.no_grad():for images, labels in testloader:images, labels images.to(device), labels.to(device)outputs model(images)_, predicted torch.max(outputs.data, 1)total labels.size(0)correct (predicted labels).sum().item()accuracy correct / total * 100print(Test Accuracy :{}%.format(accuracy))return accuracydef main():# 训练网络print(Begin to train the dense network!)train_loop(model, optimizer, criterion)print(Finish training the dense network!)accuracy_dense val(model)print(The accuracy of the trained dense network is : {}.format(accuracy_dense))torch.save(model.state_dict(), model_weights.pth)ASP.prune_trained_model(model, optimizer)accuracy_sparse val(model)print(The accuracy of the truned network is : {}.format(accuracy_sparse))print(Begin to train the sparse network!)train_loop(model, optimizer, criterion)print(Finish training the sparse network!)accuracy_sparse val(model)print(The accuracy of the trained sparse network is : {}.format(accuracy_sparse))torch.save(model.state_dict(), model_weights_sparse.pth)print(Training finished!)if __name__ __main__:transform transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.5,), (0.5,))])trainset torchvision.datasets.MNIST(root./data, trainTrue, downloadTrue, transformtransform)trainloader torch.utils.data.DataLoader(trainset, batch_size64, shuffleTrue)testset torchvision.datasets.MNIST(root./data, trainFalse, downloadTrue, transformtransform)testloader torch.utils.data.DataLoader(testset, batch_size64, shuffleFalse)device torch.device(cuda if torch.cuda.is_available() else cpu)model ConvNet().to(device)print(original weights has been saved!)criterion nn.CrossEntropyLoss()optimizer optim.SGD(model.parameters(), lr0.001, momentum0.9)main()运行结果 root:/home/shanlin/cnn_demo# python train.py Found permutation search CUDA kernels [ASP][Info] permutation_search_kernels can be imported. original weights has been saved! Begin to train the dense network! The accuracy of the trained dense network is : 94.77...The accuracy of the truned network is : 94.15...The accuracy of the trained sparse network is : 96.6 Training finished! root:/home/shanlin/cnn_demo# 可以看出第一次训练后accuracy达到了94.77剪枝后下降到了94.15再次训练后重新上升到了96.6比第一次训练还高应该是因为模型是随便写的且数据集太简单的原因
http://www.hkea.cn/news/14585126/

相关文章:

  • 青浦做网站的公司莆田网站开发
  • 网站设计 方案wordpress编辑小工具栏
  • 企业网站的网络营销广州app开发定制公司
  • 学校联网网站建设保健品网站设计机构
  • 宜昌市城市建设学校网站怎么判断一个网站做的好
  • 嘉兴 做网站 推广网站开发的需求文档
  • 佛山做网站找哪家好上海正规网站建设耗材
  • 官方网站数据如何做脚注专业做网站套餐
  • 企业网站推广的线上渠道网站建设考核表
  • 揭阳建设局网站邯郸质量一站式服务平台上线
  • 简述电子商务网站的建设步骤如何免费注册自己的网站
  • 国外网站注册软件wordpress更改logo
  • 成都网站品牌设计策划免费网站安全软件
  • 义乌网站建设公司书生商友做平面设计常用的网站
  • 成都网站设计价格烟台网站seo服务
  • wordpress企业站主题下载地址怎么将网站设置为首页
  • 网站后台图片调换位置中国订单网
  • 百度联盟网站一定要备案吗电子商务网站建设与维护实训
  • 自动网站建设怎么优化一个网站关键词
  • 鞍山做网站的开发手机app价格
  • 十大品牌网站做图赚钱的网站有哪些
  • 高端的扬中网站建设晨星wordpress
  • python兼职网站开发华为手机商城
  • 个人网站的基本风格html旅游网页设计代码
  • 哪个公司建设网站wordpress 设置缩略图
  • 常宁网站建设常宁网站建设qq企业邮箱怎么申请
  • 有没有可以做游戏的网站吗百度是国企还是央企
  • 做电影字幕的网站企业模拟网站建设
  • 快速搭建网站 优帮云北京网站建设公司哪个最好
  • 广州做网站要多少钱全球网站流量查询