当前位置: 首页 > news >正文

成品网站源码免费分享长沙推广公司

成品网站源码免费分享,长沙推广公司,做外贸推广的公司,廊坊住房和城乡建设厅网站参考几个不错的帖子(还没来得及整理): 基于pytorch多GPU单机多卡训练实践_多卡训练效果不如单卡-CSDN博客 关于PyTorch单机多卡训练_能用torch.device()实现多卡训练吗-CSDN博客 Pytorch多机多卡分布式训练 - 知乎 (zhihu.com) 当代研究生…

参考几个不错的帖子(还没来得及整理):

基于pytorch多GPU单机多卡训练实践_多卡训练效果不如单卡-CSDN博客

关于PyTorch单机多卡训练_能用torch.device()实现多卡训练吗-CSDN博客

Pytorch多机多卡分布式训练 - 知乎 (zhihu.com)

当代研究生应当掌握的并行训练方法(单机多卡) - 知乎 (zhihu.com)

Dataparallel 较慢,不推荐使用:

DataParallel 并行训练部分主要与如下代码段有关:

# main.py
import torch
import torch.distributed as distgpus = [0, 1, 2, 3]   # 
torch.cuda.set_device('cuda:{}'.format(gpus[0]))  # train_dataset = ...train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=...)model = ...
model = nn.DataParallel(model.to(device), device_ids=gpus, output_device=gpus[0])  #参与训练的 GPU 有哪些,device_ids=gpus;用于汇总梯度的 GPU 是哪个,output_device=gpus[0] optimizer = optim.SGD(model.parameters())for epoch in range(100):for batch_idx, (data, target) in enumerate(train_loader):images = images.cuda(non_blocking=True)  #target = target.cuda(non_blocking=True)...output = model(images)loss = criterion(output, target)...optimizer.zero_grad()loss.backward()optimizer.step()

平时可以直接使用内置的 Distributed: 

torch.distributed 并行训练部分主要与如下代码段有关

# main.py
import torch
import argparse
import torch.distributed as distparser = argparse.ArgumentParser()
parser.add_argument('--local_rank', default=-1, type=int,help='node rank for distributed training')
args = parser.parse_args()dist.init_process_group(backend='nccl')
torch.cuda.set_device(args.local_rank)train_dataset = ...
train_sampler = torch.utils.data.distributed.DistributedSampler(train_dataset)train_loader = torch.utils.data.DataLoader(train_dataset, batch_size=..., sampler=train_sampler)model = ...
model = torch.nn.parallel.DistributedDataParallel(model, device_ids=[args.local_rank])optimizer = optim.SGD(model.parameters())for epoch in range(100):for batch_idx, (data, target) in enumerate(train_loader):images = images.cuda(non_blocking=True)target = target.cuda(non_blocking=True)...output = model(images)loss = criterion(output, target)...optimizer.zero_grad()loss.backward()optimizer.step()

 在使用时,调用 torch.distributed.launch 启动器启动:

github完整代码:https://github.com/tczhangzhi/pytorch-distributed/blob/master/distributed.py

CUDA_VISIBLE_DEVICES=0,1,2,3 python -m torch.distributed.launch --nproc_per_node=4 main.py

 以上主要参考:当代研究生应当掌握的并行训练方法(单机多卡) - 知乎 (zhihu.com)

http://www.15wanjia.com/news/23753.html

相关文章:

  • 电子商务网站建设与维护方法爱站数据官网
  • wordpress微信接入aso优化公司
  • 网站建设丶金手指下拉十五商丘seo博客
  • 网站 换图片关键词优化排名哪家好
  • b2b电子商务网站盈利模式包括全国最新的疫情数据
  • 金融软件网站建设公司排名企业网站管理系统源码
  • 网站开发语言wap是什么电商网页
  • 电子商务网站推广怎么做太原高级seo主管
  • 长沙cms模板建站seo还能赚钱吗
  • 在哪些网站可以做毕业设计免费网络推广方式
  • 网站上切换语言是怎么做的网络营销成功的品牌
  • Wordpress文章关键字和tag标签好搜自然seo
  • 石家庄信息门户网站定制费用链爱交易平台
  • 苏州要服务网站建设湖南seo优化报价
  • 网站制作是怎样做的站长之家工具高清
  • 大厂网站建设seo工作流程图
  • 交互做的比较好的网站营销推广投放
  • 福州网站制作有限公司天堂网
  • 北海住房和城乡建设局网站无锡网站建设优化公司
  • 电子商务网站建设与管理设计报告盘搜搜
  • 绍兴做网站选哪家深圳关键词优化
  • 广州网站建设要多少钱seo技术外包 乐云践新专家
  • 个体户 网站建设东莞营销网站建设推广
  • 代码软件seo教学平台
  • 什么网站用来做商城好河南seo
  • 吉林省住房建设厅网站如何免费推广自己的产品
  • metro风格网站开发重庆网站建设哪家好
  • 丽水建设局网站网页设计需要学什么
  • 网站栏目做跳转企业宣传册
  • 手机网站优化排名app推广注册招代理