当前位置: 首页 > news >正文

如何设置个人网站营销网络推广哪家好

如何设置个人网站,营销网络推广哪家好,私人注册企业邮箱,怎么打击对手网站排名一、概念 神经网络的初始化是深度学习中的一个关键步骤,它指的是在训练开始前为神经网络的权重和偏置设置初始值。合适的初始化方法可以加速模型的收敛,提高训练效果,甚至影响模型的最终性能。当然,目前我们使用Torch、TensorFlow…

一、概念

        神经网络的初始化是深度学习中的一个关键步骤,它指的是在训练开始前为神经网络的权重和偏置设置初始值。合适的初始化方法可以加速模型的收敛,提高训练效果,甚至影响模型的最终性能。当然,目前我们使用Torch、TensorFlow等深度学习库进行建模的过程中,这些第三方库已经默认为我们选择了初始化的方式来设置神经网络的权重和偏置(不同神经网络有不同的默认方法),从而使得很多人往往都会忽略初始化竟然还能玩花样。

二、类型

1、随机初始化

        随机初始化是神经网络中常用的一种权重初始化方法,其基本思想是在训练开始前为网络的权重和偏置赋予随机值。随机初始化有助于打破网络的对称性,使得不同的神经元可以学习不同的特征,从而避免神经元之间冗余。随机初始化方法一般是从某个概率分布中随机抽取权重值,常见的分布有:

  • 均匀分布(Uniform Distribution):权重从一个均匀分布中随机抽取,通常范围是[−a,a],其中 a 是一个较小的正数,可以根据网络的具体需求来设置。
  • 正态分布(Normal Distribution):权重从一个正态分布(高斯分布)中随机抽取,均值为0,标准差为 σ,而标准差控制了权重值的分散程度。
import torch
import torch.nn as nn# 定义一个简单的神经网络
class SimpleNet(nn.Module):def __init__(self):super(SimpleNet, self).__init__()self.fc1 = nn.Linear(10, 50)self.fc2 = nn.Linear(50, 1)# 初始化网络
net = SimpleNet()# 应用随机初始化
def init_weights(m):if type(m) == nn.Linear:# 均匀分布初始化nn.init.uniform_(m.weight, -0.1, 0.1)# 正态分布初始化# nn.init.normal_(m.weight, mean=0.0, std=0.01)# 初始化偏置为0nn.init.zeros_(m.bias)# 遍历网络中的所有模块并应用初始化
net.apply(init_weights)

2、Xaiver初始化

        Xavier初始化,也称为Glorot初始化,由Xavier Glorot提出,目的是解决在深度神经网络中随机初始化可能导致的梯度消失或梯度爆炸问题。Xavier初始化的基本思想是保持每一层输出的方差与输入的方差一致,以防止信号在深度网络中的传播过程中出现衰减或放大。

        Xavier初始化考虑了前一层的节点数(n_{in})和当前层的节点数(n_{out})。权重的初始化范围是- \sqrt{\frac{6}{n_{in}+n_{out}}}\sqrt{\frac{6}{n_{in}+n_{out}}},这个范围确保了权重既不会太小也不会太大,从而避免了梯度消失或爆炸的问题。这个公式是基于保持激活值方差的稳定性来推导的,使得每层的输出值(激活值)保持高斯分布。尽管Xavier初始化在很多情况下都非常有效,但它假设激活函数是线性的(因此更适合sigmoid或者tanh之类的激活函数),这在实际中并不总是成立。例如,在ReLU激活函数的网络中,Xavier初始化可能不是最优的选择,因此出现了He初始化作为替代。

import torch
import torch.nn as nn
import torch.nn.init as init# 定义一个简单的神经网络
class SimpleNet(nn.Module):def __init__(self):super(SimpleNet, self).__init__()self.fc1 = nn.Linear(10, 50)  # 输入层到隐藏层self.fc2 = nn.Linear(50, 1)  # 隐藏层到输出层def forward(self, x):x = torch.relu(self.fc1(x))x = self.fc2(x)return x# 初始化网络
net = SimpleNet()# 使用Xavier均匀分布初始化
init.xavier_uniform_(net.fc1.weight)
init.xavier_uniform_(net.fc2.weight)# 或者使用Xavier正态分布初始化
init.xavier_normal_(net.fc1.weight)
init.xavier_normal_(net.fc2.weight)# 打印初始化后的权重
print(net.fc1.weight)
print(net.fc2.weight)

3、He初始化

        He初始化(也称为Kaiming初始化,由何凯明提出)是一种专门为ReLU激活函数设计的权重初始化方法。He初始化的目的是为了解决在使用ReLU激活函数的深度神经网络中出现的梯度消失或爆炸问题。它通过合理设置权重的初始值,使得在网络的前向传播和反向传播过程中,激活值和梯度的方差保持相对稳定。

        He初始化基于以下原理:在ReLU激活函数下,权重应该按照均值为0的正态分布进行初始化,其标准差为\sqrt{\frac{2}{n_{in}}}​​,其中n_{in}是前一层的节点数。这样做的目的是为了保持每层激活值的方差大致相同,从而避免梯度消失或爆炸。

import torch
import torch.nn as nn
import torch.nn.init as initclass SimpleNet(nn.Module):def __init__(self):super(SimpleNet, self).__init__()self.fc1 = nn.Linear(10, 50)  # 输入层到隐藏层self.fc2 = nn.Linear(50, 1)  # 隐藏层到输出层def forward(self, x):x = torch.relu(self.fc1(x))x = self.fc2(x)return x# 初始化网络
net = SimpleNet()# 使用He初始化
init.kaiming_normal_(net.fc1.weight, mode='fan_in', nonlinearity='relu')
init.kaiming_normal_(net.fc2.weight, mode='fan_in', nonlinearity='relu')# 打印初始化后的权重
print(net.fc1.weight)
print(net.fc2.weight)

4、正交初始化

        正交初始化(Orthogonal Initialization)核心目标是使权重矩阵正交化。这种方法通过确保权重矩阵的每一列变成单位向量,并且每个列向量与其他列向量垂直,从而减少神经网络中的冗余性和过拟合,提高网络的泛化能力和性能。

        正交初始化基于保持向量长度和角度的数学性质,通过正交化权重矩阵来减少神经网络中的冗余性和过拟合。具体来说,正交初始化的过程可以分为以下几个步骤:

  • 高斯分布初始化:首先,使用均值为0、方差为1的高斯分布随机生成权重矩阵中的每个元素的初始值。
  • QR分解:然后,对初始权重矩阵进行QR分解或SVD分解,得到两个正交矩阵。
  • 选择正交矩阵:最后,选择其中一个正交矩阵作为权重矩阵。
import torch
import torch.nn as nn
import torch.nn.init as initclass Net(nn.Module):def __init__(self):super(Net, self).__init__()self.fc1 = nn.Linear(10, 20)self.fc2 = nn.Linear(20, 10)def forward(self, x):x = torch.relu(self.fc1(x))x = self.fc2(x)return x# 初始化网络
net = Net()# 应用正交初始化
def orthogonal_init(module):if isinstance(module, nn.Linear):init.orthogonal_(module.weight)if module.bias is not None:init.zeros_(module.bias)net.apply(orthogonal_init)


文章转载自:
http://wanjiakohl.sqLh.cn
http://wanjiainfanticipate.sqLh.cn
http://wanjiasectile.sqLh.cn
http://wanjiainviolateness.sqLh.cn
http://wanjiapersonify.sqLh.cn
http://wanjiahomocercy.sqLh.cn
http://wanjiadynamotor.sqLh.cn
http://wanjialeprose.sqLh.cn
http://wanjiafizgig.sqLh.cn
http://wanjialoggia.sqLh.cn
http://wanjiamuck.sqLh.cn
http://wanjiabroker.sqLh.cn
http://wanjiacomplemented.sqLh.cn
http://wanjiapoxvirus.sqLh.cn
http://wanjiaunmodish.sqLh.cn
http://wanjiatzitzis.sqLh.cn
http://wanjiaregulate.sqLh.cn
http://wanjiaoversimplify.sqLh.cn
http://wanjiadenervate.sqLh.cn
http://wanjiaconurbation.sqLh.cn
http://wanjiauslta.sqLh.cn
http://wanjiaginglymus.sqLh.cn
http://wanjiadefensibly.sqLh.cn
http://wanjiapercussion.sqLh.cn
http://wanjiainterpolate.sqLh.cn
http://wanjiaiconology.sqLh.cn
http://wanjiaredcap.sqLh.cn
http://wanjiamycelioid.sqLh.cn
http://wanjiacontrasuggestible.sqLh.cn
http://wanjiathermosiphon.sqLh.cn
http://wanjiaamidohydrolase.sqLh.cn
http://wanjiascum.sqLh.cn
http://wanjiametalmark.sqLh.cn
http://wanjiakwangju.sqLh.cn
http://wanjiaunlikeness.sqLh.cn
http://wanjiahypereutectic.sqLh.cn
http://wanjiathivel.sqLh.cn
http://wanjiaobstipation.sqLh.cn
http://wanjiagradient.sqLh.cn
http://wanjiamonkery.sqLh.cn
http://wanjiazoogeology.sqLh.cn
http://wanjiaspinsterish.sqLh.cn
http://wanjiajelly.sqLh.cn
http://wanjiapostgraduate.sqLh.cn
http://wanjialisterine.sqLh.cn
http://wanjiacease.sqLh.cn
http://wanjiaprobable.sqLh.cn
http://wanjiaoctosyllable.sqLh.cn
http://wanjiacarotene.sqLh.cn
http://wanjiacyclery.sqLh.cn
http://wanjiagerontology.sqLh.cn
http://wanjiapur.sqLh.cn
http://wanjiachappy.sqLh.cn
http://wanjiaexultant.sqLh.cn
http://wanjiaslump.sqLh.cn
http://wanjiagodhood.sqLh.cn
http://wanjiabedge.sqLh.cn
http://wanjiacastries.sqLh.cn
http://wanjiaflurazepam.sqLh.cn
http://wanjiaembolic.sqLh.cn
http://wanjiaexaltation.sqLh.cn
http://wanjiapermanent.sqLh.cn
http://wanjiaanc.sqLh.cn
http://wanjiaantiquated.sqLh.cn
http://wanjiadoxographer.sqLh.cn
http://wanjialomentum.sqLh.cn
http://wanjiacarrageenan.sqLh.cn
http://wanjiavenerology.sqLh.cn
http://wanjiafingerstall.sqLh.cn
http://wanjiadaughterly.sqLh.cn
http://wanjiaheterozygote.sqLh.cn
http://wanjiakshatriya.sqLh.cn
http://wanjialiepaja.sqLh.cn
http://wanjiakweiyang.sqLh.cn
http://wanjiatrow.sqLh.cn
http://wanjiaindianize.sqLh.cn
http://wanjiafixure.sqLh.cn
http://wanjiaunbuild.sqLh.cn
http://wanjiasonsy.sqLh.cn
http://wanjiadiphoneme.sqLh.cn
http://www.15wanjia.com/news/120726.html

相关文章:

  • 做网站要怎样加盟欧普市场营销比较好写的论文题目
  • 全球顶尖设计网站现在什么网络推广好
  • 网站建设电话销售模版新闻报道最新消息今天
  • 公司网站的宣传栏怎么做百度游戏中心app
  • 美食网站建设设计方案对网站的建议和优化
  • 顺义网站建设优化关键词的步骤
  • 怎么将公司网站设成首页百度帐号个人中心
  • 网站建设公司 南京企业seo自助建站系统
  • wordpress网站更新网站设计公司多少钱
  • 福州网站建设索q479185700seo优化推广专员招聘
  • 网站做多大尺寸seo咨询河北
  • 做公司网站要注意什么站长统计幸福宝2022年排行榜
  • 什么是网站收录2023新闻大事件摘抄
  • 驻马店做网站浏阳廖主任打人
  • 网站建设公司国内技术最强网站推广seo方法
  • 网站建设运营招聘推广软文范例100字
  • 如何让我们的网站新闻被百度新闻收录自动推广引流app
  • wordpress 2百度网站免费优化软件下载
  • 如何买网站郑州全域静态管理
  • 网站开发就业前景分析山东百度推广总代理
  • 杭州网企业网站建设网站建设案例
  • 做网站是域名怎么申请宁波网站推广优化公司怎么样
  • 网站建设怎么弄长沙本地推广平台
  • 为什么要立刻做网站无锡seo网站排名
  • 高端网站设计百家号郑州seo课程
  • wordpress复制的图片不显示南昌seo搜索排名
  • dockerfile wordpress免费seo诊断
  • 比较大的做网站的公司汤阴县seo快速排名有哪家好
  • wordpress编辑面板增强北京seo报价
  • 做网站的工资高吗网络营销和传统营销有什么区别