当前位置: 首页 > news >正文

企业网站引导页模板重庆网络seo

企业网站引导页模板,重庆网络seo,一个网站里有两个网页怎么做,展会展厅设计公司深度学习模型组件之优化器–基础优化器(GD、SGD、Mini-batch SGD) 文章目录 深度学习模型组件之优化器--基础优化器(GD、SGD、Mini-batch SGD)1. 梯度下降(Gradient Descent, GD)1.1 基本原理1.2 优点与缺点…

深度学习模型组件之优化器–基础优化器(GD、SGD、Mini-batch SGD)

文章目录

  • 深度学习模型组件之优化器--基础优化器(GD、SGD、Mini-batch SGD)
    • 1. 梯度下降(Gradient Descent, GD)
      • 1.1 基本原理
      • 1.2 优点与缺点
      • 1.3 GD代码示例
    • 2. 随机梯度下降(Stochastic Gradient Descent, SGD)
      • 2.1 基本原理
      • 2.2 优缺点分析
      • 2.3 SGD代码示例
    • 3. 小批量梯度下降(Mini-batch SGD)
      • 3.1 基本原理
      • 3.2 优缺点分析
      • 3.3 Mini-batch SGD代码示例
    • 4. 总结

在深度学习的训练过程中,优化器扮演着至关重要的角色。如何高效地寻找损失函数的最小值,直接影响模型的训练速度和最终性能。今天我们就来详细探讨三种基础优化方法:梯度下降(Gradient Descent, GD)随机梯度下降(Stochastic Gradient Descent, SGD)以及小批量梯度下降(Mini-batch SGD)

1. 梯度下降(Gradient Descent, GD)

1.1 基本原理

梯度下降是优化算法中最直观的方法,其核心思想是沿着当前参数梯度下降的方向,更新参数以减小损失函数。具体更新公式如下:

在这里插入图片描述

其中,

  • θ为模型参数,
  • η是学习率,
  • ∇θJ(θ)表示损失函数关于参数的梯度

1.2 优点与缺点

优点:

  • 理论简单、易于理解
  • 在凸优化问题中能够保证收敛到全局最优解

缺点:

  • 每次更新都需要计算整个训练集的梯度,计算开销巨大,尤其在大规模数据集上效率低下。
  • 对于非凸问题容易陷入局部最优,且对初始值比较敏感

1.3 GD代码示例

下面是一个使用 Python 实现简单梯度下降算法的示例:

import numpy as np# 假设我们要最小化 f(x) = x^2
def f(x):return x ** 2def grad_f(x):return 2 * x# 初始化参数
x = 10.0
learning_rate = 0.1
num_iterations = 50for i in range(num_iterations):grad = grad_f(x)x = x - learning_rate * gradprint(f"Iteration {i+1}: x = {x}, f(x) = {f(x)}")

2. 随机梯度下降(Stochastic Gradient Descent, SGD)

2.1 基本原理

随机梯度下降与梯度下降的主要区别在于:SGD 每次只使用一个样本(或一小部分样本)来估计梯度,从而大大减少了每次更新所需的计算量。更新公式类似,但梯度 ∇θJ(θ) 只针对一个样本或一个样本对进行计算,即:

在这里插入图片描述

这里:

  • x(i)y(i) 分别表示第 i 个样本及其对应的标签;
  • ∇θJ(θ;x(i),y(i)) 为基于单个样本计算的梯度。

2.2 优缺点分析

优点:

  • 单次更新速度快,计算量小,适合大数据量的训练;
  • 更新参数更加频繁,有助于快速跳出局部最优解。

缺点:

  • 由于每次更新只依赖单个样本,梯度的估计存在较大噪声,可能导致更新震荡
  • 收敛路径不够平滑,可能需要更多迭代才能达到稳定状态。

2.3 SGD代码示例

下面是一个使用 SGD 的简单实现示例:

import numpy as np# 假设我们有一个样本数据集 X 和对应标签 Y,用于线性回归
X = np.array([1, 2, 3, 4, 5])
Y = np.array([2, 4, 6, 8, 10])  # 真实关系为 y = 2x# 初始化参数
w = 0.0
learning_rate = 0.01
num_iterations = 100for i in range(num_iterations):# 随机选择一个样本idx = np.random.randint(0, len(X))x_i = X[idx]y_i = Y[idx]# 预测值与误差prediction = w * x_ierror = prediction - y_i# 梯度计算(以均方误差损失函数求导)grad = 2 * error * x_iw = w - learning_rate * gradif (i+1) % 10 == 0:print(f"Iteration {i+1}: w = {w}")

3. 小批量梯度下降(Mini-batch SGD)

3.1 基本原理

小批量梯度下降可以看作是 GD 与 SGD 的折中方案:在每次更新中,使用一小部分样本(称为 mini-batch)来估计梯度。这样既保留了梯度下降整体稳定的优势,也减少了计算量,并且在一定程度上降低了 SGD 的噪声

更新公式仍然为:

在这里插入图片描述

其中,∇θJmini−batch(θ) 表示基于小批量样本计算出的梯度平均值

3.2 优缺点分析

优点:

  • 兼顾了计算效率和梯度估计的稳定性
  • 利用向量化运算可以大幅提高计算效率,适合 GPU 并行计算

缺点:

  • 小批量大小的选择对训练效果有较大影响;
  • 若 mini-batch 太小,噪声可能依然较大;若太大,则可能失去 SGD 的随机性优势

3.3 Mini-batch SGD代码示例

下面是一个使用 mini-batch SGD 实现线性回归的示例代码:

import numpy as np# 数据集
X = np.linspace(1, 5, 100)
Y = 2 * X + np.random.randn(100)  # 加入一定噪声# 初始化参数
w = 0.0
learning_rate = 0.001
num_iterations = 200
batch_size = 10for i in range(num_iterations):# 随机抽取 mini-batchindices = np.random.choice(len(X), batch_size, replace=False)X_batch = X[indices]Y_batch = Y[indices]# 计算预测值与误差predictions = w * X_batcherrors = predictions - Y_batch# 梯度计算(均方误差损失函数求导)grad = 2 * np.dot(errors, X_batch) / batch_sizew = w - learning_rate * gradif (i+1) % 20 == 0:mse = np.mean(errors ** 2)print(f"Iteration {i+1}: w = {w:.4f}, MSE = {mse:.4f}")

4. 总结

本文介绍了三种基本优化方法:

  • 梯度下降(GD):使用整个训练集计算梯度,更新稳定,但计算量大,适合小数据集和理论研究。
  • 随机梯度下降(SGD):每次只用一个样本更新,速度快、更新频繁,但容易出现噪声和波动。
  • 小批量梯度下降(Mini-batch SGD):使用一小批样本计算平均梯度,兼顾了计算效率和更新稳定性,但需要合理选择批次大小。

下面是三者的对比表格:

方法原理优点缺点
梯度下降(GD)用整个训练集计算梯度更新稳定,理论简单计算量大,速度慢
随机梯度下降(SGD)每次用一个样本计算梯度更新快,适合大数据噪声大,收敛不平滑
小批量梯度下降(Mini-batch SGD)用一小批样本计算平均梯度兼顾速度与稳定性,适合GPU加速需精心调控批次大小

文章转载自:
http://wanjiaexasperator.rmyn.cn
http://wanjiainextensible.rmyn.cn
http://wanjiasignor.rmyn.cn
http://wanjiaseasonably.rmyn.cn
http://wanjiasquarson.rmyn.cn
http://wanjiaworkshop.rmyn.cn
http://wanjiabattlesome.rmyn.cn
http://wanjiastabilization.rmyn.cn
http://wanjiatutress.rmyn.cn
http://wanjiacorolla.rmyn.cn
http://wanjiacurtly.rmyn.cn
http://wanjiastreetlamp.rmyn.cn
http://wanjialineally.rmyn.cn
http://wanjianeurogenetics.rmyn.cn
http://wanjiastetson.rmyn.cn
http://wanjiaconglobulation.rmyn.cn
http://wanjiagarrulous.rmyn.cn
http://wanjialaconic.rmyn.cn
http://wanjiavapor.rmyn.cn
http://wanjiaunroll.rmyn.cn
http://wanjiaraspberry.rmyn.cn
http://wanjiaparalexia.rmyn.cn
http://wanjiaacetarsone.rmyn.cn
http://wanjiasynesis.rmyn.cn
http://wanjianidificant.rmyn.cn
http://wanjiaphentolamine.rmyn.cn
http://wanjiaiby.rmyn.cn
http://wanjiacastigation.rmyn.cn
http://wanjiadepreciation.rmyn.cn
http://wanjiafaze.rmyn.cn
http://wanjiateleconnection.rmyn.cn
http://wanjiasynergid.rmyn.cn
http://wanjiacablese.rmyn.cn
http://wanjiasericiculture.rmyn.cn
http://wanjiaunedifying.rmyn.cn
http://wanjiaheartsore.rmyn.cn
http://wanjiaintransit.rmyn.cn
http://wanjiaambitiously.rmyn.cn
http://wanjiamb.rmyn.cn
http://wanjiadiplopod.rmyn.cn
http://wanjiadivisionism.rmyn.cn
http://wanjiaunderemphasize.rmyn.cn
http://wanjiaunwitting.rmyn.cn
http://wanjiashrinkable.rmyn.cn
http://wanjiahypoallergenic.rmyn.cn
http://wanjiaoakley.rmyn.cn
http://wanjiaharmost.rmyn.cn
http://wanjiaexserted.rmyn.cn
http://wanjialug.rmyn.cn
http://wanjiatrinitrophenol.rmyn.cn
http://wanjiadynast.rmyn.cn
http://wanjiarhomboidal.rmyn.cn
http://wanjiaholmic.rmyn.cn
http://wanjiadermatitis.rmyn.cn
http://wanjiashemitic.rmyn.cn
http://wanjiamultilayer.rmyn.cn
http://wanjiaupcountry.rmyn.cn
http://wanjiahyphenism.rmyn.cn
http://wanjiafiord.rmyn.cn
http://wanjiaemendate.rmyn.cn
http://wanjiaunuseful.rmyn.cn
http://wanjiabezier.rmyn.cn
http://wanjiahaeju.rmyn.cn
http://wanjiaslate.rmyn.cn
http://wanjiapreengagement.rmyn.cn
http://wanjiaepispastic.rmyn.cn
http://wanjiatonus.rmyn.cn
http://wanjiacompetitive.rmyn.cn
http://wanjiachiasmus.rmyn.cn
http://wanjiaosculatory.rmyn.cn
http://wanjiadisulphide.rmyn.cn
http://wanjiarampage.rmyn.cn
http://wanjiasepaloid.rmyn.cn
http://wanjiasitosterol.rmyn.cn
http://wanjiasplashy.rmyn.cn
http://wanjiacastellan.rmyn.cn
http://wanjiacanada.rmyn.cn
http://wanjiaexecutory.rmyn.cn
http://wanjiadolorimetry.rmyn.cn
http://wanjiacycadophyte.rmyn.cn
http://www.15wanjia.com/news/109429.html

相关文章:

  • wordpress 学生百度快照优化公司
  • 哪些网站是动态的泰安网站seo推广
  • 湖州城市投资建设集团网站如何开发网站
  • wordpress pc手机端漯河搜狗关键词优化排名软件
  • 网站页面框架设计网店推广策划书
  • 北京网站建设资讯中国十大流量网站
  • 广州小程序定制开发网站seo站群软件
  • 苹果电脑用什么软件做网站广州网站seo推广
  • 工业设计灵感网站互联网广告管理暂行办法
  • 罗湖做网站联系电话网站分析案例
  • 平台类网站做多久天津seo渠道代理
  • html网站自带字体怎么做上海哪家seo好
  • 有没有公司做农副产品网站的2018十大网络营销案例
  • 网站名称个人百度竞价推广一个月多少钱
  • 外包做的网站 需要要源代码吗windows优化大师是病毒吗
  • wordpress 主页 导航兴安盟新百度县seo快速排名
  • 当下 如何做网站赚钱万网域名查询接口
  • 做网站的心得体会西安百度推广怎么做
  • 怎样做自己的网站加入百度联盟市场调研分析报告范文
  • 西安建设网站电话号码seo友情链接
  • 公司网站建设情况说明书山东大学经济研究院
  • 免费网站下载软件免费湖南好搜公司seo
  • 网站建设需要注册42类吗青岛网络工程优化
  • 安徽网站建设方案优化营销推广模式有哪些
  • 做西点网站使用百度地图导航收费吗
  • 昆明企业网站设计公司百度总部电话
  • wordpress动漫网站模板网站改版公司哪家好
  • 焦作做网站桂林seo顾问
  • 没钱怎么做网站宁波企业seo推广
  • 360度全景网站的公司百度竞价开户公司