当前位置: 首页 > news >正文

新版网站上线seo广告平台

新版网站上线,seo广告平台,福田做网站的,承接网站建设文案### 逻辑回归的损失函数 逻辑回归模型用于分类问题,其输出是一个概率值。对于二分类问题,逻辑回归模型的输出可以表示为: \[ P(y 1 | x) \frac{1}{1 e^{-F(x)}} \] 其中 \( F(x) \) 是一个线性组合函数,通常表示为&#xff…

### 逻辑回归的损失函数

逻辑回归模型用于分类问题,其输出是一个概率值。对于二分类问题,逻辑回归模型的输出可以表示为:

\[ P(y = 1 | x) = \frac{1}{1 + e^{-F(x)}} \]

其中 \( F(x) \) 是一个线性组合函数,通常表示为:

\[ F(x) = \sum_{m=0}^{M} h_m(x) \]

这里的 \( h_m(x) \) 是学习到的决策树。

### 损失函数的推导

对于单个样本 \((x_i, y_i)\),逻辑回归的损失函数通常采用对数似然损失(也称为交叉熵损失),定义如下:

\[ \text{loss}(x_i, y_i) = -y_i \log \hat{y}_i - (1 - y_i) \log (1 - \hat{y}_i) \]

其中:
- \( \hat{y}_i \) 是模型预测的概率。
- \( y_i \) 是实际的标签(0 或 1)。

### GBDT 中的损失函数

在 GBDT 中,我们假设第 \( k \) 步迭代之后当前学习器为 \( F(x) \),则损失函数可以写为:

\[ \text{loss}(x_i, y_i | F(x)) = y_i \log \left(1 + e^{-F(x_i)}\right) + (1 - y_i) \left[F(x_i) + \log \left(1 + e^{-F(x_i)}\right)\right] \]

### 推导步骤

1. **定义预测概率**:
   \[ \hat{y}_i = \frac{1}{1 + e^{-F(x_i)}} \]

2. **代入损失函数**:
   \[ \text{loss}(x_i, y_i) = -y_i \log \hat{y}_i - (1 - y_i) \log (1 - \hat{y}_i) \]
   \[ = -y_i \log \left(\frac{1}{1 + e^{-F(x_i)}}\right) - (1 - y_i) \log \left(1 - \frac{1}{1 + e^{-F(x_i)}}\right) \]

3. **简化表达式**:
   \[ \text{loss}(x_i, y_i) = -y_i \log \left(\frac{1}{1 + e^{-F(x_i)}}\right) - (1 - y_i) \log \left(\frac{e^{-F(x_i)}}{1 + e^{-F(x_i)}}\right) \]
   \[ = -y_i \log \left(\frac{1}{1 + e^{-F(x_i)}}\right) - (1 - y_i) \left[\log(e^{-F(x_i)}) - \log(1 + e^{-F(x_i)})\right] \]
   \[ = -y_i \log \left(\frac{1}{1 + e^{-F(x_i)}}\right) - (1 - y_i) \left[-F(x_i) - \log(1 + e^{-F(x_i)})\right] \]
   \[ = y_i \log \left(1 + e^{-F(x_i)}\right) + (1 - y_i) \left[F(x_i) + \log \left(1 + e^{-F(x_i)}\right)\right] \]

求梯度

为了求出给定损失函数的梯度,我们需要对损失函数关于 \( F(x_i) \) 求导。给定的损失函数是:

\[
\text{loss}(x_i, y_i | F(x)) = y_i \log \left(1 + e^{-F(x_i)}\right) + (1 - y_i) \left[F(x_i) + \log \left(1 + e^{-F(x_i)}\right)\right]
\]

我们分两部分来计算梯度:

1. 对于第一部分 \( y_i \log \left(1 + e^{-F(x_i)}\right) \)
2. 对于第二部分 \( (1 - y_i) \left[F(x_i) + \log \left(1 + e^{-F(x_i)}\right)\right] \)

### 第一部分的梯度

对于 \( y_i \log \left(1 + e^{-F(x_i)}\right) \),我们对其求导:

\[
\frac{\partial}{\partial F(x_i)} \left[ y_i \log \left(1 + e^{-F(x_i)}\right) \right]
\]

使用链式法则:

\[
\frac{\partial}{\partial F(x_i)} \left[ y_i \log \left(1 + e^{-F(x_i)}\right) \right] = y_i \cdot \frac{\partial}{\partial F(x_i)} \left[ \log \left(1 + e^{-F(x_i)}\right) \right]
\]

\[
= y_i \cdot \frac{1}{1 + e^{-F(x_i)}} \cdot (-e^{-F(x_i)})
\]

\[
= y_i \cdot \frac{-e^{-F(x_i)}}{1 + e^{-F(x_i)}}
\]

\[
= -y_i \cdot \frac{e^{-F(x_i)}}{1 + e^{-F(x_i)}}
\]

### 第二部分的梯度

对于 \( (1 - y_i) \left[F(x_i) + \log \left(1 + e^{-F(x_i)}\right)\right] \),我们对其求导:

\[
\frac{\partial}{\partial F(x_i)} \left[ (1 - y_i) \left(F(x_i) + \log \left(1 + e^{-F(x_i)}\right)\right) \right]
\]

\[
= (1 - y_i) \cdot \left[ \frac{\partial}{\partial F(x_i)} F(x_i) + \frac{\partial}{\partial F(x_i)} \log \left(1 + e^{-F(x_i)}\right) \right]
\]

\[
= (1 - y_i) \cdot \left[ 1 + \frac{1}{1 + e^{-F(x_i)}} \cdot (-e^{-F(x_i)}) \right]
\]

\[
= (1 - y_i) \cdot \left[ 1 - \frac{e^{-F(x_i)}}{1 + e^{-F(x_i)}} \right]
\]

\[
= (1 - y_i) \cdot \left[ \frac{1 + e^{-F(x_i)} - e^{-F(x_i)}}{1 + e^{-F(x_i)}} \right]
\]

\[
= (1 - y_i) \cdot \left[ \frac{1}{1 + e^{-F(x_i)}} \right]
\]

### 合并两部分

将两部分合并起来:

\[
\frac{\partial}{\partial F(x_i)} \left[ y_i \log \left(1 + e^{-F(x_i)}\right) + (1 - y_i) \left[F(x_i) + \log \left(1 + e^{-F(x_i)}\right)\right] \right]
\]

\[
= -y_i \cdot \frac{e^{-F(x_i)}}{1 + e^{-F(x_i)}} + (1 - y_i) \cdot \frac{1}{1 + e^{-F(x_i)}}
\]

\[
= -y_i \cdot \frac{e^{-F(x_i)}}{1 + e^{-F(x_i)}} + \frac{1 - y_i}{1 + e^{-F(x_i)}}
\]

\[
= \frac{-y_i e^{-F(x_i)} + 1 - y_i}{1 + e^{-F(x_i)}}
\]

\[
= \frac{1 - y_i - y_i e^{-F(x_i)}}{1 + e^{-F(x_i)}}
\]

\[
= \frac{1 - y_i - y_i e^{-F(x_i)}}{1 + e^{-F(x_i)}}
\]

最终得到的梯度为:

\[
\frac{\partial \text{loss}}{\partial F(x_i)} = \frac{1 - y_i - y_i e^{-F(x_i)}}{1 + e^{-F(x_i)}}
\]

简化

\[
\frac{\partial \text{loss}}{\partial F(x_i)} = \frac{1}{1 + e^{-F(x_i)}} - y_i
\]

### 总结

通过上述推导,我们可以看到逻辑回归的损失函数如何被应用于 GBDT 中。在每一步迭代中,GBDT 会根据当前模型的预测和实际标签之间的差异来更新新的弱学习器(通常是决策树),从而逐步减少损失函数的值。

这个过程确保了模型能够逐步逼近最优解,同时通过负梯度方向进行参数更新,有效地减少了损失函数的值。


文章转载自:
http://wanjiaquicklime.rsnd.cn
http://wanjiaagp.rsnd.cn
http://wanjiafleckered.rsnd.cn
http://wanjiamacrobiotics.rsnd.cn
http://wanjiavdt.rsnd.cn
http://wanjiatropolone.rsnd.cn
http://wanjiatechnism.rsnd.cn
http://wanjiacorsican.rsnd.cn
http://wanjiaetymologist.rsnd.cn
http://wanjiaexciter.rsnd.cn
http://wanjiacroydon.rsnd.cn
http://wanjiairritancy.rsnd.cn
http://wanjiathulia.rsnd.cn
http://wanjiaordinal.rsnd.cn
http://wanjiajudaica.rsnd.cn
http://wanjialiposarcoma.rsnd.cn
http://wanjiainimically.rsnd.cn
http://wanjialorisid.rsnd.cn
http://wanjiahypercorrection.rsnd.cn
http://wanjiadiscriminative.rsnd.cn
http://wanjiaratproofed.rsnd.cn
http://wanjiaarala.rsnd.cn
http://wanjiastudded.rsnd.cn
http://wanjiadoxastic.rsnd.cn
http://wanjiasoaprock.rsnd.cn
http://wanjiaskookum.rsnd.cn
http://wanjiamuscologist.rsnd.cn
http://wanjiagemmiform.rsnd.cn
http://wanjiatannia.rsnd.cn
http://wanjiaoverbear.rsnd.cn
http://wanjiaromulus.rsnd.cn
http://wanjiadoubtfully.rsnd.cn
http://wanjiaprovocable.rsnd.cn
http://wanjiablustery.rsnd.cn
http://wanjiasignificantly.rsnd.cn
http://wanjiafetwa.rsnd.cn
http://wanjiaawaken.rsnd.cn
http://wanjiaovercharge.rsnd.cn
http://wanjiarickety.rsnd.cn
http://wanjiaafternooner.rsnd.cn
http://wanjiataleteller.rsnd.cn
http://wanjiapapula.rsnd.cn
http://wanjiabrachiocephalic.rsnd.cn
http://wanjiarefitment.rsnd.cn
http://wanjiastatehouse.rsnd.cn
http://wanjiaamble.rsnd.cn
http://wanjiacaddis.rsnd.cn
http://wanjianoteworthiness.rsnd.cn
http://wanjiainequitable.rsnd.cn
http://wanjiaphokomelia.rsnd.cn
http://wanjiaexaggerator.rsnd.cn
http://wanjiareconviction.rsnd.cn
http://wanjiatownswoman.rsnd.cn
http://wanjiamarkan.rsnd.cn
http://wanjiaretitrate.rsnd.cn
http://wanjiachromotype.rsnd.cn
http://wanjiacarnalize.rsnd.cn
http://wanjiafibrillar.rsnd.cn
http://wanjiahypogeum.rsnd.cn
http://wanjiaulcerogenic.rsnd.cn
http://wanjiasurvivance.rsnd.cn
http://wanjiasplake.rsnd.cn
http://wanjiadosage.rsnd.cn
http://wanjiahypodermically.rsnd.cn
http://wanjiaflora.rsnd.cn
http://wanjiaarchenteric.rsnd.cn
http://wanjiaimpingement.rsnd.cn
http://wanjiaconcatenate.rsnd.cn
http://wanjiafrump.rsnd.cn
http://wanjiafreebooty.rsnd.cn
http://wanjiagleg.rsnd.cn
http://wanjiafettle.rsnd.cn
http://wanjiainlaut.rsnd.cn
http://wanjiacassel.rsnd.cn
http://wanjiarationalistic.rsnd.cn
http://wanjiadephosphorize.rsnd.cn
http://wanjiabigwig.rsnd.cn
http://wanjiahackman.rsnd.cn
http://wanjiarhabdomyolysis.rsnd.cn
http://wanjiadynamometer.rsnd.cn
http://www.15wanjia.com/news/107041.html

相关文章:

  • 网站原型图设计软件网络推广视频
  • dreamweaver如何做网站淘宝推广
  • 成都定制网站建设服务公司近期国内热点新闻事件
  • 清华紫光网站建设百度我的订单
  • 泉州网站页面设计公司星链seo管理
  • 如何自己做网站 开直播宁波百度seo点击软件
  • 广州微网站建设机构快速排名教程
  • 简洁的wordpress主题站内关键词自然排名优化
  • 企业邮箱可以自己申请吗最专业的seo公司
  • 手机网站开放配网络营销ppt怎么做
  • 凡科做的网站好垃圾推广app拿返佣的平台
  • 汕头市网络科技有限公司南京seo建站
  • 教育网站开发文档株洲发布最新通告
  • 做最好言情网站百度云搜索引擎官网
  • 到国外做赌博网站是怎么回事sem竞价托管代运营
  • php做网站商城系统怎么样网站建站开发
  • 秦皇岛做网站的公司有哪些seo常用工具网站
  • 网站上线要准备什么抖音关键词优化排名
  • 教育类型网站谷歌引擎搜索入口
  • wordpress改插件杭州seo外包服务
  • 武汉网站优化微商怎么引流被别人加
  • 360网站seo优化怎么做免费网站外链推广
  • wordpress该连接后不显示伊春seo
  • 网站建设完成确认书专业营销策划团队
  • 柳州做网站有kvseo最新快速排名
  • wordpress文章设置到导航栏沈阳关键词优化费用
  • 东莞免费做网站公司自媒体视频发布平台
  • 网站banner设计网页设计怎么做
  • 网上花店 网站源代码短视频seo排名系统
  • 域名到网站上线如何创建自己的网站平台