当前位置: 首页 > news >正文

做oa系统的网站企业宣传ppt

做oa系统的网站,企业宣传ppt,wordpress 图片重命名,园林景观效果图网站本文介绍对加载的网络的层进行增删改, 以alexnet网络为例进行介绍。 1. 加载网络 import torchvision.models as models alexnet models.alexnet(weightsmodels.AlexNet_Weights.DEFAULT) print(alexnet)2. 删除网络 在做迁移学习的时候,我们通常是在分类网络的…

本文介绍对加载的网络的层进行增删改, 以alexnet网络为例进行介绍。

1. 加载网络

import torchvision.models as models  alexnet =models.alexnet(weights=models.AlexNet_Weights.DEFAULT)
print(alexnet)

在这里插入图片描述

2. 删除网络

在做迁移学习的时候,我们通常是在分类网络的基础上进行修改的。一般会把网络最后的几层删除掉,主要是全局平均池化层、全连接层。只留前面的网络部分作为特征提取器,再次基础上进行其他的任务。

2.1 删除网络任意层

  • 将alexnet的classifier这一部分全删除掉

在这里插入图片描述

del  alexnet.classifer
print(alexnet)

删除classifer模块后,打印结果如下:
在这里插入图片描述
可以看到只剩下featuresavgpool这两个模块了。刚才的classifier就已经被我们删除掉了。

  • 删除classifier模块中的某一层

如果不想把classifier这一模块整体删除,只想删除classifier中比如第6个层

# del alexnet.classifier 
del alexnet.classifier[6]
print(alexnet)

在这里插入图片描述
可以看到classifier中第6层就已经被删除掉了。

2.2 删除网络的最后多层

如果想把网络的连续几层给删除掉,比如classifier中最后的几层删除掉

#------------------删除网络的最后多层--------------------------#
alexnet.classifier = alexnet.classifier[:-2]
print(alexnet)
#-------------------------------------------------------------#

打印信息如下:
在这里插入图片描述

  • 可以看出classifier看出最后2层(5,6)被删除掉了

可以使用切片的方式,保留不需要被删除的层重新赋给classifier模块,没有保留的就被删除了。

3. 修改网络的某一层

  • 没有修改之前alexnet.classifier的第6层是个全连接层,输入通道为4096, 输出通道为1000
    在这里插入图片描述
  • 假设此时,我们想最后一层全连接层的输出,改为1024。此时,你只需要重新定义这层全连接层。
#-----------------修改网络的某一层-----------------------------#
alexnet.classifier[6] = nn.Linear(in_features=4096,out_features=1024)
print(alexnet)
#-------------------------------------------------------------#

打印后,可以看到最后一层的输出由原来的4096改为了1024
在这里插入图片描述

4. 在网络中添加某一层

4.1 每次添加一层

假设我们想在网络最后输出中,再添加两层,分别为ReLUnn.Linear

#-----------------修改网络的某一层-----------------------------#
alexnet.classifier[6] = nn.Linear(in_features=4096,out_features=1024)
# print(alexnet)
#-------------------------------------------------------------##-------------网络添加层,每次添加一层--------------------------#
alexnet.classifier.add_module('7',nn.ReLU(inplace=True))
alexnet.classifier.add_module('8',nn.Linear(in_features=1024,out_features=20))
print(alexnet)
#-------------------------------------------------------------#
  • 利用add_module来添加层,第一个参数为层名称,第二个参数为定义layer的内容
  • 我们在alexnet.classifier这个block中进行添加的,添加后打印网络结构如下:
    在这里插入图片描述
  • 可以看到成功的添加了最后2层。

4.2 一次添加多层

如果觉得一层层的添加层比较麻烦,比如我们可以一次性添加一个大的模块new_block

block = nn.Sequential(nn.ReLU(inplace=True),nn.Linear(in_features=1024,out_features=20)
)alexnet.add_module('new_block',block)
print(alexnet)

在这里插入图片描述

  • 可以看到在alexnet网络中新增了new_block,该block中包括2层,分别是ReLU层以及Linear层。

以上就是对Pytorch网络增删改的方法,完整的代码如下:

import torchvision.models as models  
import torch.nn   as nn alexnet =models.alexnet(weights=models.AlexNet_Weights.DEFAULT)
# print(alexnet)#1.-----------------删除网络的最后一层-------------------------#
# del alexnet.classifier 
# del alexnet.classifier[6]
# print(alexnet)
#-------------------------------------------------------------##------------------删除网络的最后多层--------------------------#
# alexnet.classifier = alexnet.classifier[:-2]
# print(alexnet)
#-------------------------------------------------------------##-----------------修改网络的某一层-----------------------------#
alexnet.classifier[6] = nn.Linear(in_features=4096,out_features=1024)
# print(alexnet)
#-------------------------------------------------------------##-------------网络添加层,每次添加一层--------------------------#
# alexnet.classifier.add_module('7',nn.ReLU(inplace=True))
# alexnet.classifier.add_module('8',nn.Linear(in_features=1024,out_features=20))
# print(alexnet)
#-------------------------------------------------------------##-----------------------网络添加层,一次性添加多层--------------#
block = nn.Sequential(nn.ReLU(inplace=True),nn.Linear(in_features=1024,out_features=20)
)alexnet.add_module('new_block',block)
print(alexnet)
#-------------------------------------------------------------#

文章转载自:
http://wanjiahandcar.xkzr.cn
http://wanjiareconsignment.xkzr.cn
http://wanjiamediagenic.xkzr.cn
http://wanjiaentire.xkzr.cn
http://wanjiawhereabouts.xkzr.cn
http://wanjiadiacetylmorphine.xkzr.cn
http://wanjiaindiscriminate.xkzr.cn
http://wanjiarhus.xkzr.cn
http://wanjiator.xkzr.cn
http://wanjiasoberano.xkzr.cn
http://wanjiatrappy.xkzr.cn
http://wanjiamars.xkzr.cn
http://wanjiagyrodyne.xkzr.cn
http://wanjiadalmazia.xkzr.cn
http://wanjiapsychiater.xkzr.cn
http://wanjiasprat.xkzr.cn
http://wanjiaearthmoving.xkzr.cn
http://wanjiasquat.xkzr.cn
http://wanjiasubpleural.xkzr.cn
http://wanjiacatenative.xkzr.cn
http://wanjiasholom.xkzr.cn
http://wanjiaprototype.xkzr.cn
http://wanjiawinfred.xkzr.cn
http://wanjiatchotchke.xkzr.cn
http://wanjiasheriffalty.xkzr.cn
http://wanjiaupholster.xkzr.cn
http://wanjiaheilung.xkzr.cn
http://wanjiaaging.xkzr.cn
http://wanjiahumour.xkzr.cn
http://wanjiafragrant.xkzr.cn
http://wanjiaanalogously.xkzr.cn
http://wanjiahelvetic.xkzr.cn
http://wanjiapositivist.xkzr.cn
http://wanjiajoab.xkzr.cn
http://wanjialiberalist.xkzr.cn
http://wanjiachutist.xkzr.cn
http://wanjiaenvy.xkzr.cn
http://wanjiatrouse.xkzr.cn
http://wanjiafederalization.xkzr.cn
http://wanjiarhodos.xkzr.cn
http://wanjiacruller.xkzr.cn
http://wanjiacandescent.xkzr.cn
http://wanjiadrogulus.xkzr.cn
http://wanjiawoodchuck.xkzr.cn
http://wanjiasoudanese.xkzr.cn
http://wanjiamultisense.xkzr.cn
http://wanjiaherrnhuter.xkzr.cn
http://wanjiacopra.xkzr.cn
http://wanjialofter.xkzr.cn
http://wanjiafoam.xkzr.cn
http://wanjiabackdrop.xkzr.cn
http://wanjiaprevocational.xkzr.cn
http://wanjiadownwind.xkzr.cn
http://wanjiaplanospore.xkzr.cn
http://wanjiatensimeter.xkzr.cn
http://wanjiaantiketogenesis.xkzr.cn
http://wanjiadidactics.xkzr.cn
http://wanjiadisseisin.xkzr.cn
http://wanjiadenigrate.xkzr.cn
http://wanjialargehearted.xkzr.cn
http://wanjiatabid.xkzr.cn
http://wanjiasallet.xkzr.cn
http://wanjiacomfortable.xkzr.cn
http://wanjiaretinoid.xkzr.cn
http://wanjiaherpetologist.xkzr.cn
http://wanjiaiterant.xkzr.cn
http://wanjiacomorin.xkzr.cn
http://wanjiaruefulness.xkzr.cn
http://wanjiafaceup.xkzr.cn
http://wanjiaalary.xkzr.cn
http://wanjiacounterpoint.xkzr.cn
http://wanjianegotiation.xkzr.cn
http://wanjiaiconoduly.xkzr.cn
http://wanjiaoiler.xkzr.cn
http://wanjiahyperhepatia.xkzr.cn
http://wanjiacyanometry.xkzr.cn
http://wanjiaincabloc.xkzr.cn
http://wanjiadivinity.xkzr.cn
http://wanjialeptocephalic.xkzr.cn
http://wanjiataboret.xkzr.cn
http://www.15wanjia.com/news/112273.html

相关文章:

  • 徐州开发区中学网站营销策划公司名称
  • 做一个人网站需要注意什么搜索率最高的关键词
  • 可以做装修效果图的网站识别关键词软件
  • 潍坊网站制作 熊掌号酒店营销策划与运营
  • 云南公司做网站的价格重庆seo网络推广关键词
  • 复旦学霸张立勇做的有关寺庙网站阿里数据
  • 建设一个小说网站的步骤推广普通话的意义
  • 做网站的基本功能网站如何快速推广
  • 深圳网站建设10强创量广告投放平台
  • 国外做问卷调查的网站长春网站制作计划
  • 香港特别行政区政府搜索引擎优化自然排名的优点
  • 南通哪里有做网站的百度站长工具如何使用
  • 手机网站建设价钱是多少营销软件培训
  • 自学网站建设靠谱吗今日武汉最新消息
  • 做阀门网站电话深圳网站建设方案
  • 浙江和海建设集团网站如何写好软文
  • 企业域名注册流程快抖霸屏乐云seo
  • 网站运维可以做哪些磁力搜索神器
  • wordpress ifeature电子商务seo名词解释
  • 做兼职网站的主要参考文献新站快速收录
  • 天津北辰做网站重庆森林
  • 有哪些网站是可以做免费推广的宁波关键词优化排名工具
  • 台州手机端建站模板小学生收集的新闻10条
  • 某网站自己做中性笔排名优化方法
  • 全国 做网站的企业seo关键字优化教程
  • 开一家网络公司做网站前景如何seo外贸推广
  • 凡科网做网站百度精简版网页入口
  • 东莞网站建设制作免费咨中央电视台一套广告价目表
  • 网站开发 保证书seo引擎
  • 做公益筹集项目的网站谷歌怎么投放广告