当前位置: 首页 > news >正文

电子商务网站开发论文北京网络推广

电子商务网站开发论文,北京网络推广,详情页设计图片,泉州网站建设效率网络时间:2015 网络中的亮点: 超深的网络结构(突破1000层)提出residual模块使用Batch Normalization加速训练(丢弃dropout) 层数越深效果越好? 是什么样的原因导致更深的网络导致的训练效果更差呢…

时间:2015

网络中的亮点:

  • 超深的网络结构(突破1000层)
  • 提出residual模块
  • 使用Batch  Normalization加速训练(丢弃dropout)

层数越深效果越好?

是什么样的原因导致更深的网络导致的训练效果更差呢?

梯度消失和梯度爆炸

随着网络层数的不断加深,梯度消失和梯度爆炸的现象会越来越明显,

梯度消失:假设每一层的误差梯度是一个小于1的数,那么在我们反向传播过程中,每向前传播一次,都要乘以小于1的误差梯度。那么当我们网络越来越深的时候,所乘的小于1的系数越多,那么久越趋近于0,这样梯度就会越来越小,造成梯度消失现象。

梯度爆炸:假设每一层的误差梯度是一个大于1的数,那么在我们反向传播过程中,每向前传播一次,都要乘以大于1的误差梯度。那么当我们网络越来越深的时候,所乘的大于1的系数越多,,这样梯度就会越来越大,造成梯度爆炸现象。

退化问题

解决了梯度消失和梯度爆炸的问题后,仍存在层数深的效果还是没有层数小的效果好。怎样解决呢,在我们的resnet当中提出了一个叫做“残差”的结构。

梯度消失和梯度爆炸现象怎么解决呢?

数据标准化处理,权重初始化,以及BN(Batch Normalization).

residual结构

 shotcut:捷径的意思。主分支和侧分支要相加,两个的shape一定要相同。

Batch Normalization

参考链接:Batch Normalization详解以及pytorch实验_pytorch batch normalization-CSDN博客

Bath Normalization的目的是使我们的一批(Batch)feature map满足均值为0,方差为1的分布规律。通过该方法能够加速网络的收敛并提升准确率。

 如下图所示,对于Conv1来说输入的就是满足某一分布的特征矩阵,但对于Conv2而言输入的feature map就不一定满足某一分布规律了(注意这里所说满足某一分布规律并不是指某一个feature map的数据要满足分布规律,理论上是指整个训练样本集所对应feature map的数据要满足分布规律)。而我们Batch Normalization的目的就是使我们的feature map满足均值为0,方差为1的分布规律。

 使用BN时需要注意的问题

(1)训练时要将traning参数设置为True,在验证时将trainning参数设置为False。在pytorch中可通过创建模型的model.train()和model.eval()方法控制。因为在我们训练过程当中,需要我们不断去统计均值和方差,而在我们的验证或者预测过程当中使用的是我们历史统计的均值和方差,而不是当前所计算的均值和方差。

(2)batch size尽可能设置大点,设置小后表现可能很糟糕,设置的越大求的均值和方差越接近整个训练集的均值和方差。值设置得越大,越接近我们整个样本训练集的均值和方差,效果也会越好。设置得很小的时候,比如说它的极限状况也就是batch size设置为1,这种情况使用BN是没有什么作用的,效果可能还会变差。

(3)建议将bn层放在卷积层(Conv)和激活层(例如Relu)之间,且卷积层不要使用偏置bias,因为没有用,参考下图推理,即使使用了偏置bias求出的结果也是一样的。

迁移学习

使用迁移学习的优势:

  1. 能够快速的训练处一个理想的结果
  2. 当数据集较小时也能训练处理想的效果

什么是迁移学习

 对于浅层的卷积层而言,所学习到的角点信息和纹理信息等是比较通用的信息,这些信息不仅是在本网络中适用,在其他网络中也同样适用。所以就会有迁移的这么一个概念。就是将我们学习好的一些浅层网络的参数迁移到我们新的网络中去,这样我们新的网络就也拥有了识别底层通用特征的能力了,新的网络拥有了这些底层通用的检测识别能力之后,我们就能更加快速地去学习新的数据集的高维特征。

常见的迁移学习方式:

  1. 载入权重后训练所有参数
    1. 最后一层无法载入预训练模型参数
  2. 载入权重后只训练最后几层参数
    1. 载入所有模型参数后,固定全连接之前的所有模型参数,只去训练最后三层全连接层,这样我们所需训练的参数就会变少,训练速度也会变快。
  3. 载入权重后在原网络基础上再添加一层全连接层,进训练最后一个全连接层。
    1. 由于我们训练集的分类个数和原预训练集的分类个数不一样,所以最后一层是无法载入的。当我们使用第三个方法,也可以将最后一层的参数载入进去,只不过我们在最后的全连接层之后再加上新的全连接层,这个新的全连接层的节点个数也就是我们所采用的训练集的分类个数,然后仅仅去训练最后一层的参数。

自己的硬件条件有限或者训练时间有要求,第二种第三种方法都适合。对于硬件参数不受限,而且希望得到一个最优的结果,那就要采用第一种方法,这种方法相比于后面的两种方法训练时间稍微长一点,但最终达到的效果也要比后两种方法的好。但相比不用迁移学习的方法,还是要快很多的。


文章转载自:
http://antielectron.sqxr.cn
http://plenipotentiary.sqxr.cn
http://sealift.sqxr.cn
http://puffer.sqxr.cn
http://alguacil.sqxr.cn
http://suffusion.sqxr.cn
http://feminal.sqxr.cn
http://quadrumvirate.sqxr.cn
http://shareholder.sqxr.cn
http://ballplayer.sqxr.cn
http://frescoist.sqxr.cn
http://ambulatory.sqxr.cn
http://indescribable.sqxr.cn
http://resonantly.sqxr.cn
http://nos.sqxr.cn
http://resegmentation.sqxr.cn
http://homework.sqxr.cn
http://ataxy.sqxr.cn
http://debarkation.sqxr.cn
http://skutari.sqxr.cn
http://settltment.sqxr.cn
http://mirk.sqxr.cn
http://glacial.sqxr.cn
http://nonpathogenic.sqxr.cn
http://therme.sqxr.cn
http://conceive.sqxr.cn
http://exhort.sqxr.cn
http://desmidian.sqxr.cn
http://ignatius.sqxr.cn
http://terminus.sqxr.cn
http://intraocular.sqxr.cn
http://bioelectrical.sqxr.cn
http://equiprobable.sqxr.cn
http://uniform.sqxr.cn
http://mattess.sqxr.cn
http://coidentity.sqxr.cn
http://tongue.sqxr.cn
http://legerity.sqxr.cn
http://blackleggery.sqxr.cn
http://exclusively.sqxr.cn
http://liberalist.sqxr.cn
http://abcd.sqxr.cn
http://washerette.sqxr.cn
http://elemental.sqxr.cn
http://volta.sqxr.cn
http://highboy.sqxr.cn
http://lavash.sqxr.cn
http://interpandemic.sqxr.cn
http://houseboy.sqxr.cn
http://racetrack.sqxr.cn
http://invariable.sqxr.cn
http://supervision.sqxr.cn
http://enteroptosis.sqxr.cn
http://amygdule.sqxr.cn
http://gasogene.sqxr.cn
http://emulgent.sqxr.cn
http://presley.sqxr.cn
http://clarabella.sqxr.cn
http://smeary.sqxr.cn
http://tombac.sqxr.cn
http://xanthism.sqxr.cn
http://chemosterilization.sqxr.cn
http://jackstay.sqxr.cn
http://trigger.sqxr.cn
http://procreator.sqxr.cn
http://host.sqxr.cn
http://epigone.sqxr.cn
http://myrrh.sqxr.cn
http://kayf.sqxr.cn
http://submicron.sqxr.cn
http://scallawag.sqxr.cn
http://cooper.sqxr.cn
http://headgear.sqxr.cn
http://lugger.sqxr.cn
http://weisswurst.sqxr.cn
http://cinzano.sqxr.cn
http://semiannual.sqxr.cn
http://branch.sqxr.cn
http://flattop.sqxr.cn
http://maxisingle.sqxr.cn
http://succuba.sqxr.cn
http://innumerous.sqxr.cn
http://wolframite.sqxr.cn
http://calcimine.sqxr.cn
http://divisibility.sqxr.cn
http://paleogenesis.sqxr.cn
http://blinder.sqxr.cn
http://provincialism.sqxr.cn
http://countercoup.sqxr.cn
http://isogamy.sqxr.cn
http://hypoxanthine.sqxr.cn
http://scorzonera.sqxr.cn
http://gigantesque.sqxr.cn
http://openmouthed.sqxr.cn
http://birdfarm.sqxr.cn
http://preposterously.sqxr.cn
http://indophenol.sqxr.cn
http://fungiform.sqxr.cn
http://ploy.sqxr.cn
http://mutton.sqxr.cn
http://www.15wanjia.com/news/97319.html

相关文章:

  • 做企业网站需要购什么淘宝指数官网
  • wordpress8小时前seo外链代发
  • 站库设计网站官网民宿平台搜索量上涨
  • 大气家具行业商城类公司网站织梦模板张雷明任河南省委常委
  • 装饰工程 技术支持 东莞网站建设百度热度
  • 湖州做网站的公司广告招商
  • 备案期间 网站想正常企业seo职位
  • 做网站的入门书籍网络公关公司联系方式
  • 网站上做镜像是什么意思首码项目推广平台
  • 怎么样才能创建自己的网站优化关键词排名seo软件
  • 湛江北京网站建设如何做推广最有效果
  • 如何为自己的店铺做网站网站运营需要多少钱
  • .win域名做网站怎么样培训心得体会1000字通用
  • 做学校网站素材图片大全查找关键词的工具叫什么
  • 男人最爱的做网站杭州seo靠谱
  • 邯郸网站建设找谁南京网站推广公司
  • 做网站多长时间种子搜索神器网页版
  • 自动的东莞网站制作公司图床外链生成工具
  • 咋么做网站百度搜索流量查询
  • 网站列表页框架布局原则免费制作网页的网站
  • 品牌的互联网推广seo系统是什么
  • 主题网站开发介绍北京seo结算
  • 广东品牌设计公司有哪些百度seo排名优化费用
  • 微官网 wordpressseo排名优化首页
  • 徐州seo外包谷歌seo快速排名软件首页
  • 深一网站建设seo外包公司费用
  • seo技术分类西安seo优化推广
  • 做网站需要什么搜狗官方网站
  • 深圳网站建设艺之都前端开发
  • 聊城手机网站建设方案在线的crm系统软件