当前位置: 首页 > news >正文

个人建设视频网站百度app在哪里找

个人建设视频网站,百度app在哪里找,wordpress 指定,google搜索入口在单机多卡环境下使用PyTorch训练MNIST数据集时#xff0c;可以通过DataParallel (DP) 和 DistributedDataParallel (DDP) 两种方式实现多卡并行。以下是具体实现示例和对比#xff1a; 1. DataParallel (DP) 方式 DP是单进程多线程的简单并行方式#xff0c;将模型复制到多…在单机多卡环境下使用PyTorch训练MNIST数据集时可以通过DataParallel (DP) 和 DistributedDataParallel (DDP) 两种方式实现多卡并行。以下是具体实现示例和对比 1. DataParallel (DP) 方式 DP是单进程多线程的简单并行方式将模型复制到多个GPU数据切分后分发到不同GPU计算最后在主GPU聚合梯度。 import torch import torch.nn as nn import torch.optim as optim from torchvision import datasets, transforms from torch.utils.data import DataLoader# 定义模型 class Net(nn.Module):def __init__(self):super(Net, self).__init__()self.fc nn.Linear(784, 10)def forward(self, x):return self.fc(x.view(x.size(0), -1))# 数据加载 transform transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))]) train_dataset datasets.MNIST(./data, trainTrue, downloadTrue, transformtransform) train_loader DataLoader(train_dataset, batch_size64, shuffleTrue)# 初始化模型和优化器 model Net() model nn.DataParallel(model) # 包装为DP模式 model model.cuda() optimizer optim.SGD(model.parameters(), lr0.01)# 训练循环 for epoch in range(5):for data, target in train_loader:data, target data.cuda(), target.cuda()optimizer.zero_grad()output model(data)loss nn.CrossEntropyLoss()(output, target)loss.backward()optimizer.step()print(fEpoch {epoch}, Loss: {loss.item()})DP的缺点 单进程控制多卡存在GIL锁限制。主GPU显存瓶颈需聚合梯度。效率低于DDP。 2. DistributedDataParallel (DDP) 方式 DDP是多进程并行每个GPU独立运行一个进程通过NCCL通信同步梯度效率更高且无主GPU瓶颈。 import torch import torch.distributed as dist import torch.multiprocessing as mp import torch.nn as nn import torch.optim as optim from torchvision import datasets, transforms from torch.utils.data import DataLoader, DistributedSamplerdef setup(rank, world_size):dist.init_process_group(nccl, rankrank, world_sizeworld_size)def cleanup():dist.destroy_process_group()class Net(nn.Module):def __init__(self):super(Net, self).__init__()self.fc nn.Linear(784, 10)def forward(self, x):return self.fc(x.view(x.size(0), -1))def train(rank, world_size):setup(rank, world_size)# 每个进程独立加载数据使用DistributedSamplertransform transforms.Compose([transforms.ToTensor(), transforms.Normalize((0.1307,), (0.3081,))])train_dataset datasets.MNIST(./data, trainTrue, downloadTrue, transformtransform)sampler DistributedSampler(train_dataset, num_replicasworld_size, rankrank)train_loader DataLoader(train_dataset, batch_size64, samplersampler)# 初始化模型和优化器model Net().to(rank)model nn.parallel.DistributedDataParallel(model, device_ids[rank])optimizer optim.SGD(model.parameters(), lr0.01)# 训练循环for epoch in range(5):sampler.set_epoch(epoch) # 确保每个epoch的shuffle不同for data, target in train_loader:data, target data.to(rank), target.to(rank)optimizer.zero_grad()output model(data)loss nn.CrossEntropyLoss()(output, target)loss.backward()optimizer.step()if rank 0: # 仅主进程打印print(fEpoch {epoch}, Loss: {loss.item()})cleanup()if __name__ __main__:world_size torch.cuda.device_count()mp.spawn(train, args(world_size,), nprocsworld_size, joinTrue)DDP的关键点 多进程启动mp.spawn 启动多个进程每个进程绑定一个GPU。进程组初始化init_process_group 设置NCCL后端。数据分片DistributedSampler 确保每个进程读取不同数据。模型包装DistributedDataParallel 自动同步梯度。 DP vs DDP 对比 特性DataParallel (DP)DistributedDataParallel (DDP)并行模式单进程多线程多进程通信效率低主GPU聚合瓶颈高NCCL直接通信显存占用主GPU显存压力大各GPU显存均衡代码复杂度简单无需修改数据加载较复杂需配置进程组和Sampler适用场景快速原型开发生产环境大规模训练 总结 DP适合快速验证多卡可行性但效率低。DDP是PyTorch官方推荐的多卡训练方式适合实际生产环境。
http://www.hkea.cn/news/14578784/

相关文章:

  • 淘宝客怎样建网站目前市面上做网站的程序
  • 17网做网站wordpress静态化占内存么
  • 请人做网站需要问哪些问题三亚北京网站建设
  • 百度图片搜索引擎入口seo优化厂家
  • 电子商务网站的建设 论文wordpress 加盟 主题
  • 深圳外贸建站网络推广公司安徽网站建设SEO优化制作设计公司
  • 固原建设厅官方网站网站规则
  • 湖州网站建设制作wordpress如何修改网页
  • 婚纱摄影手机网站模板小甲虫抖音代运营
  • 郑州做网站哪个公司好潍坊专业输送带产品介绍
  • 四川省住房与城乡建设厅网站管网中国公路建设在哪个网站公示
  • 树莓派用来做网站京伦科技网站做的怎么样
  • 如何做好网站关键词优化婚庆公司赚钱吗
  • 大成建设株式会社网站国内各大网站
  • 广告制作公司网站建设模板忘记网站后台账号
  • 仿做网站要多少钱wordpress phonegap
  • 网站你懂我意思正能量晚上在线观看不用下载免费魅族网站建设的实践报告
  • 黑龙江公司网站开发免费游戏打开就能玩
  • 上海圣品科技 做网站涿州市建设局网站网址是多少
  • 58同城网站建设排名软件开发兼职平台有哪些
  • 门户网站定义wordpress添加登陆
  • 网站建设与管理用什么软件百度app交易平台
  • ASP net网站开发资料页面设计总结
  • 网上书店网站建设目标做ar的网站
  • 西安十大网站制作公司黄骅百度贴吧招聘
  • 做企业宣传网站女人动漫做受网站
  • 深圳建站公司兴田德润电话多少家居网站建设
  • 网站推广的主要方法潍坊关键词优化平台
  • 企业网站优化的方案安徽网站建站系统哪家好
  • 怎么从网站知道谁做的大数据培训班需要多少钱