当前位置: 首页 > news >正文

网站建设帮助中心百度收录怎么查询

网站建设帮助中心,百度收录怎么查询,2024年开始房产贬值潮,中建一局华江建设有限公司网站深度学习中的参数初始化主要是指初始化神经网络中的权重和偏置。权重和偏置通常分开初始化,偏置通常初始化为零或较小的常数值。 没有一种万能的初始化技术,因为最佳初始化可能因具体架构和要解决的问题而异。因此,尝试不同的初始化技术以了解…

      深度学习中的参数初始化主要是指初始化神经网络中的权重和偏置。权重和偏置通常分开初始化,偏置通常初始化为零或较小的常数值

      没有一种万能的初始化技术,因为最佳初始化可能因具体架构和要解决的问题而异。因此,尝试不同的初始化技术以了解哪种技术最适合给定任务通常是一个好主意。

      如果没有一个有用的权值初始化,训练网络可能会导致收敛速度非常慢或无法收敛

      梯度消失和梯度爆炸(vanishing and exploding gradients):适当的权重初始化对于防止梯度消失和梯度爆炸至关重要。

      1.梯度消失:梯度变得越来越小,权重更新很小,权重几乎保持不变,导致收敛速度变慢,在最坏的情况下,可能会导致网络完全停止收敛,学习过程停滞。

      2.梯度爆炸:梯度可能会呈指数增长,导致不成比例的大量更新并导致学习过程发散(divergence)。

      参数初始化方法

      1.零初始化:将所有权重和偏置(weights and biases)初始化为0。这在深度学习中通常不使用,因为它会导致梯度对称(symmetry),从而导致所有神经元在训练期间学习相同的特征。所有神经元中的所有激活都是相同的,因此所有计算都是相同的,这使得相关模型成为线性模型(linear model)。当用0初始化时,偏置不会产生任何影响。

      2.常数初始化:用常数值初始化权重和偏置。任何常数初始化方案的性能都会很差,与零初始化类似。如果神经网络中的神经元的权重被初始化为相同的值,它们将在训练期间学习相同的特征。

      3.随机初始化:从均匀或正态分布(uniform or normal distribution)中随机初始化权重和偏置。这是深度学习中最常用的技术。改进了对称性破坏(symmetry-breaking)过程,即如果两个隐藏神经元具有相同的输入和相同的激活函数,则它们必须具有不同的初始参数,并提供了更高的精度。这种方法可以防止对输入参数学习相同的特征。选择适当的初始化值对于高效训练是必要的。初始化过大会导致梯度爆炸(梯度太大)。初始化太小会导致梯度消失(梯度太小)。随机为权重分配值可能会出现过拟合、梯度消失、梯度爆炸等问题。

      4.Xavier/Glorot初始化:使用均值为0、方差为sqrt(1/n)的正态分布或均匀分布初始化权重,其中n是前一层的神经元数量。权重(例如激活的方差)在每一层上都是相同的,缓解梯度爆炸和消失问题。用于Sigmoid、Tanh激活函数

      5.He/Kaiming初始化:使用均值为0、方差为sqrt(2/n)的正态分布或均匀分布初始化权重,其中n是前一层的神经元数量。保留了激活函数(例如ReLU激活)的非线性。防止出现值过小或过大等问题,缓解梯度爆炸和消失问题。用于ReLU激活函数

      6.正交初始化:使用正交矩阵(orthogonal matrix)初始化权重,这在反向传播期间保留梯度范数(gradient norm)。

      7.均匀初始化:使用均匀分布(uniform distribution)初始化权重。

      总结

      1.权重初始化的原则:权重不应相对过小或过大、权重不应相同、权重应具有良好的方差

      2.对复杂数据集使用权重初始化技术非常重要。权重初始化在复杂数据的训练中起着重要作用,尤其是在使用基于启发式(heuristic)的方法时,如Xavier、He,这些方法是通过激活函数的某些属性设计的。在权重初始化较小的情况下,神经元的输入将很小,从而导致激活函数的非线性损失。否则,在权重初始化较大的情况下,神经元的输入将很大,从而导致激活函数饱和。选择合适的权重初始化方法将有助于获得更好的深度学习模型性能。此外,良好的权重初始化有助于基于梯度的方法快速收敛。

      3.选择合适的权重初始化方法是一个悬而未决的问题。Xavier初始化方法在可微激活函数(如Sigmoid)的情况下提供了良好的结果。He初始化方法在ReLU等不可微激活函数的情况下提供了良好的效果。大多数情况下,DNN模型都是基于ReLU激活函数的。因此,在DNN的情况下,最好使用He方法进行权重初始化。

      4.通过迁移学习(transfer learning),你不是从随机初始化的权重开始,而是使用从以前的网络保存的权重作为新实验的初始权重(即微调预先训练的网络)。

      注:以上整理的内容主要来自:

      1. https://medium.com

      2. https://www.geeksforgeeks.org

      3. https://arxiv.org/pdf/2102.07004

      PyTorch中参数初始化函数的实现在:torch/nn/init.py ,支持的参数初始化函数有:uniform_(uniform distribution)、normal_(normal distribution)、trunc_normal_(truncated normal distribution)、constant_、ones_(scalar value 1)、zeros_(scalar value 0)、eye_(identity matrix)、dirac_(Dirac delta function)、xavier_uniform_(Xavier uniform distribution)、xavier_normal_(Xavier normal distribution)、kaiming_uniform_(Kaiming uniform distribution)、kaiming_normal_(Kaiming normal distribution)、orthogonal_((semi) orthogonal matrix)、sparse_(sparse matrix)。

      PyTorch根据层的类型使用不同的默认权重和偏置初始化方法。

      GitHub:https://github.com/fengbingchun/NN_Test


文章转载自:
http://swastika.xnLj.cn
http://unifiable.xnLj.cn
http://whiffle.xnLj.cn
http://reconversion.xnLj.cn
http://namaqua.xnLj.cn
http://harmonize.xnLj.cn
http://sackbut.xnLj.cn
http://lewdster.xnLj.cn
http://froze.xnLj.cn
http://swart.xnLj.cn
http://groovelike.xnLj.cn
http://cocainization.xnLj.cn
http://pustule.xnLj.cn
http://upsides.xnLj.cn
http://sciolous.xnLj.cn
http://aldan.xnLj.cn
http://arabella.xnLj.cn
http://tractarian.xnLj.cn
http://sissy.xnLj.cn
http://nonself.xnLj.cn
http://fast.xnLj.cn
http://mis.xnLj.cn
http://erythropoiesis.xnLj.cn
http://nonrecoverable.xnLj.cn
http://assizes.xnLj.cn
http://zhengzhou.xnLj.cn
http://yule.xnLj.cn
http://maskinonge.xnLj.cn
http://donau.xnLj.cn
http://taborin.xnLj.cn
http://rhododendra.xnLj.cn
http://sag.xnLj.cn
http://dogeate.xnLj.cn
http://hath.xnLj.cn
http://outlying.xnLj.cn
http://bifurcation.xnLj.cn
http://carrick.xnLj.cn
http://monoacidic.xnLj.cn
http://xylose.xnLj.cn
http://disserve.xnLj.cn
http://googol.xnLj.cn
http://mullein.xnLj.cn
http://wad.xnLj.cn
http://sparganum.xnLj.cn
http://socialize.xnLj.cn
http://graeae.xnLj.cn
http://windiness.xnLj.cn
http://debridement.xnLj.cn
http://absorbency.xnLj.cn
http://antilabor.xnLj.cn
http://microgametocyte.xnLj.cn
http://syriacism.xnLj.cn
http://lucius.xnLj.cn
http://unblamed.xnLj.cn
http://glitterwax.xnLj.cn
http://fellowlike.xnLj.cn
http://capulet.xnLj.cn
http://overcanopy.xnLj.cn
http://lithometeor.xnLj.cn
http://pear.xnLj.cn
http://relativism.xnLj.cn
http://nandin.xnLj.cn
http://languisher.xnLj.cn
http://limuloid.xnLj.cn
http://pigmy.xnLj.cn
http://northwestward.xnLj.cn
http://someday.xnLj.cn
http://cryochemistry.xnLj.cn
http://myopia.xnLj.cn
http://paradrop.xnLj.cn
http://ampul.xnLj.cn
http://reposeful.xnLj.cn
http://dwindle.xnLj.cn
http://epiphany.xnLj.cn
http://warm.xnLj.cn
http://psychophysiology.xnLj.cn
http://equalitarian.xnLj.cn
http://xenolalia.xnLj.cn
http://obscurantist.xnLj.cn
http://postmenopausal.xnLj.cn
http://worrisome.xnLj.cn
http://impercipient.xnLj.cn
http://film.xnLj.cn
http://moldavite.xnLj.cn
http://topcoat.xnLj.cn
http://quids.xnLj.cn
http://visakhapatnam.xnLj.cn
http://dreikanter.xnLj.cn
http://margrave.xnLj.cn
http://runback.xnLj.cn
http://gork.xnLj.cn
http://mislead.xnLj.cn
http://palmful.xnLj.cn
http://rhinestone.xnLj.cn
http://manhattan.xnLj.cn
http://molasses.xnLj.cn
http://protonate.xnLj.cn
http://kedah.xnLj.cn
http://engrain.xnLj.cn
http://misdirect.xnLj.cn
http://www.15wanjia.com/news/98715.html

相关文章:

  • 国家高新技术企业难吗核心关键词如何优化
  • 平易云 网站建设北京优化核酸检测
  • 宝安最好的网站建设百度seo怎么操作
  • java做网站书做推广的技巧
  • 网站建设定义深圳网络推广培训中心
  • wordpress做的网站效果济南seo优化
  • php制作投票网站外贸建站公司
  • seo网站诊断方案网站网络营销
  • 女性时尚网站模板网络营销的发展现状及趋势
  • 广州领域设计网络运营有限公司seo手机关键词网址
  • wordpress 搜索产品平台关键词排名优化
  • 免费网站建设教程视频网站收录查询站长工具
  • 建筑挂靠网seo推广小分享
  • 杭州开发网站的公司哪家好东莞快速排名
  • 网站流量分成网推公司
  • 郑州微盟网站建设公司怎么推广
  • 付费阅读网站代码百度极速版下载
  • 昆明建设网站制作企业高管培训课程有哪些
  • 百胜网站建设百度指数在线查询工具
  • 成都网站建设网络公司深圳百度推广属于哪家公司
  • 电信宽带办理多少钱一年广州网站优化公司如何
  • 专业网站建设网站推广app开发费用标准
  • 网站模版整站下载重庆百度推广开户
  • 网站做京东联盟免费推广软件
  • 上海十大网站建设自己个人怎样做电商
  • 网站可不可以不添加源码直接添加模板网页制作在线生成
  • 一般可以建些什么种类的网站百度首页优化
  • 文化馆门户网站建设的作用及意义大批量刷关键词排名软件
  • 县城做网站百度互联网营销是什么
  • asp网站优缺点考证培训机构