当前位置: 首页 > news >正文

佛山网站建设灵格百度浏览器官网下载并安装

佛山网站建设灵格,百度浏览器官网下载并安装,美食网站建设目的,郑州做网站找维诺上一章——激活函数 文章目录什么是多分类问题Softmax贝叶斯公式softmax的损失函数多标签分类问题什么是多分类问题 在之前的课程中,我们学习了二分问题,二分问题中的所有数据会被分类为0和1(或者Ture和False)两种输出标签。但是…

上一章——激活函数

文章目录

  • 什么是多分类问题
  • Softmax
    • 贝叶斯公式
    • softmax的损失函数
  • 多标签分类问题


什么是多分类问题

在这里插入图片描述在之前的课程中,我们学习了二分问题,二分问题中的所有数据会被分类为0和1(或者Ture和False)两种输出标签。但是在大多数情况下,分类问题的输出远远不止两种情况,例如之前在课程中举例的肿瘤问题,肿瘤被分为良性和恶性两种,但实际上会有更多的分类情况,它有可能是A型,B型,C型…我们将这种拥有2种以上输出标签的问题称为多分类问题。虽然输出y依旧只能取值有限的离散值,但是输出标签的种类将会有两个以上。

MNIST被称为机器学习的“Hello World”,MNIST要求算法识别出不同的字迹所对应的数字,所有的阿拉伯数字总共有10个(0~9),MNIST就是一个典型的多分类问题。

在这里插入图片描述
在二分问题中,我们的拟合方法是找到假设函数g(z)g(z)g(z)中的决策边界z,那么推广到多分类问题中,也是同样的方法,二分问题只需一条决策边界,而往后的n分问题则需要n条决策边界。类比二分问题中我们使用的是逻辑回归,在多分问题中我们将学习Softmax算法。


Softmax

Softmax算法是对逻辑回归的推广和泛化,是一种针对多分类环境下的二元分类算法
在这里插入图片描述
首先我们要指出一点:所有离散值的预测概率之和一定为1。
以二分问题中的逻辑回归为例,假设P(y=1∣x)=0.71P(y=1|x)=0.71P(y=1∣x)=0.71,那么P(y=0∣x)=1−0.71=0.29P(y=0|x)=1-0.71=0.29P(y=0∣x)=10.71=0.29,
这个很好理解,因为输出结果不是0就是1,那么P(y=1∣x)+P(y=0∣x)=1P(y=1|x)+P(y=0|x)=1P(y=1∣x)+P(y=0∣x)=1,那么我们推广到多元
在这里插入图片描述
在这里插入图片描述

我们会发现Softmax的计算公式与Sigmoid相似,
Softmax:zj=w⃗j⋅x⃗+bj(j=1...N)z_j=\vec w_j \cdot \vec x+b_j(j=1...N)zj=wjx+bj(j=1...N)
aj=ezj∑k=1Nezk=P(y=j∣x⃗)a_j=\frac{e^{z_j}}{\sum^N_{k=1} e^{z_k}}=P(y=j|\vec x)aj=k=1Nezkezj=P(y=jx)
如果想要从数学上理解Softmax函数,我们必须先了解一个概念:

  • 贝叶斯公式

贝叶斯公式

条件概率公式:
P(x∣y)=P(xy)P(y)P(x|y)=\frac {P(xy)}{P(y)}P(xy)=P(y)P(xy)
其中P(x∣y)P(x|y)P(xy)代表在y事件已经发生的情况下x事件发生的概率,P(xy)P(xy)P(xy)代表事件xy都发生的概率,P(y)代表y事件发生的概率(无论x事件是否发生)

全概率公式:
P(x)=∑i=1nP(yi)P(x∣yi)P(x)=\displaystyle\sum^n_{i=1}P(y_i)P(x|y_i)P(x)=i=1nP(yi)P(xyi)
因此x事件发生的全概率是在每一种yiy_iyi事件发生的情况下事件x发生的概率之和

贝叶斯公式:
P(yi∣x)=P(x∣yi)P(yi)P(x)=P(x∣yi)P(yi)∑j=1nP(yi)P(x∣yj)P(y_i|x)=\frac {P(x|y_i)P(y_i)}{P(x)}=\frac {P(x|y_i)P(y_i)}{\sum^n_{j=1}P(y_i)P(x|y_j)}P(yix)=P(x)P(xyi)P(yi)=j=1nP(yi)P(xyj)P(xyi)P(yi)
其中根据条件概率公式我们知道P(x∣yi)P(yi)=P(xyi),P(x|y_i)P(y_i)=P(xy_i),P(xyi)P(yi)=P(xyi)即为x和yiy_iyi事件都发生的概率,P(x)为x事件发生的全概率
因此P(yi∣x)=P(xyi)P(x)P(y_i|x)=\frac {P(xy_i)}{P(x)}P(yix)=P(x)P(xyi)

在二分类问题中,由于分类只有两种,因此事件y只有两项,如果我们将贝叶斯公式上下同时除以P(y1)P(x∣y1)P(y_1)P(x|y_1)P(y1)P(xy1)
P(y1∣x)=P(y1)P(x∣y1)P(y1)P(x∣y1)+P(y2)P(x∣y2)P(y_1|x)=\frac {P(y_1)P(x|y_1)}{P(y_1)P(x|y_1)+P(y_2)P(x|y_2)}P(y1x)=P(y1)P(xy1)+P(y2)P(xy2)P(y1)P(xy1)
=11+P(y2)P(x∣y2)P(y1)P(x∣y1)=\frac {1}{1+\frac {P(y_2)P(x|y_2)}{P(y_1)P(x|y_1)}}=1+P(y1)P(xy1)P(y2)P(xy2)1

我们将P(y2)P(x∣y2)P(y1)P(x∣y1)\frac {P(y_2)P(x|y_2)}{P(y_1)P(x|y_1)}P(y1)P(xy1)P(y2)P(xy2)设为e−ze^{-z}ez
P(y1∣x)=11+e−zP(y_1|x)=\frac {1}{1+e^{-z}}P(y1x)=1+ez1
是不是有点眼熟?没错,这就是Sigmoid函数
其中z=lnP(y2)P(x∣y2)P(y1)P(x∣y1)z=ln\frac {P(y_2)P(x|y_2)}{P(y_1)P(x|y_1)}z=lnP(y1)P(xy1)P(y2)P(xy2),z与向量的关系请参考sigmoid与条件概率的关系及推导过程
之所以要设成e的指数形式,是为了防止概率出现负数,以e的指数形式表示是不会出现负数的
我们说softmax是Sigmoid的推广,你可以简单地把P(y1∣x)看作t1t1+t2,P(y_1|x)看作\frac {t_1}{t_1+t_2},P(y1x)看作t1+t2t1,P(y2∣x)=1−t1t1+t2=t2t1+t2P(y_2|x)=1-\frac {t_1}{t_1+t_2}=\frac {t_2}{t_1+t_2}P(y2x)=1t1+t2t1=t1+t2t2,然后推广到n阶就有P(yN∣x)=tNt1+...+tNP(y_N|x)=\frac {t_N}{t_1+...+t_N}P(yNx)=t1+...+tNtN,当然我只是从结果上讲,没有什么数学推理,具体原理贴在下面链接

本文只是简单地提一下概率论的一些基本知识,至于softmax公式的推导,如果还想深究里面的数学原理,可以看看这个视频,作者本人打算学完这个系列之后在复习这些内容:softmax是为了解决归一问题凑出来的吗?和最大熵是什么关系?最大熵对机器学习为什么非常重要?


softmax的损失函数

回到我们上面的内容,Softmax:
zj=w⃗j⋅x⃗+bj(j=1...N)z_j=\vec w_j \cdot \vec x+b_j(j=1...N)zj=wjx+bj(j=1...N)
aj=ezj∑k=1Nezk=P(y=j∣x⃗)a_j=\frac{e^{z_j}}{\sum^N_{k=1} e^{z_k}}=P(y=j|\vec x)aj=k=1Nezkezj=P(y=jx)

在这里插入图片描述
我们说Softmax是逻辑回归的推广,那么其损失函数也应当类似,
其中loss(a1,....aN,y)={−loga1ify=1−loga2ify=2...−logaNify=Nloss(a_1,....a_N,y)= \begin{cases} -log\space a_1 \space\space if \space y=1 \\ -log\space a_2 \space\space if \space y=2 \\ ... \\ -log\space a_N \space\space if \space y=N \end{cases}loss(a1,....aN,y)=log a1  if y=1log a2  if y=2...log aN  if y=N

当概率aia_iai越接近0,损失越大,其中N代表单层内神经元的个数


多标签分类问题

在这里插入图片描述

如果我们想要用人工智能来实现视觉识别,就像你平时在上网时遇到的一些验证题目:“为了验证您不是机器人,请找出图中的汽车”。我们想要实现对一张图片同时多处进行识别,以上图为例,识别图中是否有轿车?是否有公交车?是否有行人?
那么该例子中输入图片x,我们将会得到一个含三个数字的输出向量y。

注意:多标签分类问题和我们在上面所说的多分类问题并不是同一个东西,在多分类问题中,尽管有多种不同的取值,但我们最后得到的输出结果往往是数字y。其本质回答的是一个问题:预测值属于哪一类?
而在多标签分类问题中,最终的输出结果是一个含多个数字的向量,这意味着你可以认为它同时解答了多个问题:是否存在a?是否存在b?…是否存在n?在多分类问题中,最终结果只能是多个标签中的一个,但在多标签分类问题中最终结果可能是多个标签同时存在。
在这里插入图片描述
我们怎样去实现多标签分类问题?如果说回答三个问题,我们当然可以设计三个神经网络,来分别解决。但是这样未免也太浪费了,实际上由于这三个问题的结构都是一模一样的,本质上来说都是同样的算法,它们的隐藏层都是一样的,因此我们可以将它们进行合并。
在这里插入图片描述
最终,我们可以构造这样的一个神经网络,唯一的区别在于输出层使用了多个神经元而非单个,相当于我们将上面的三个神经网络的输出层的神经元合并到同一个输出层。而且注意:在此处我们使用的是Sigmoid函数而非Softmax。不是说Softmax用于解决多个标签的分类问题吗?因为本质上该例子中需要预测的问题是三个二分问题,所以我们使用的是三个Sigmoid函数而非Softmax。

在学习中,不要搞混了多分类问题和多标签分类问题的概念。你可以简单理解为:多分类问题中的所有输出标签都是互斥的,如果是A那就不能是B、C…
而在多标签分类问题中,所有的输出标签并无互斥关系,输出有A也不影响输出B,它们可以同时存在。



文章转载自:
http://aftermath.rhmk.cn
http://osmund.rhmk.cn
http://trijugous.rhmk.cn
http://hyperion.rhmk.cn
http://allocution.rhmk.cn
http://dollhouse.rhmk.cn
http://sporadically.rhmk.cn
http://hotspring.rhmk.cn
http://amidol.rhmk.cn
http://borsalino.rhmk.cn
http://authoritarian.rhmk.cn
http://haricot.rhmk.cn
http://flic.rhmk.cn
http://wiesbaden.rhmk.cn
http://steamer.rhmk.cn
http://streptothricin.rhmk.cn
http://revocable.rhmk.cn
http://hydroxytryptamine.rhmk.cn
http://simultaneous.rhmk.cn
http://hanky.rhmk.cn
http://sarmentaceous.rhmk.cn
http://phonocardiogram.rhmk.cn
http://u.rhmk.cn
http://size.rhmk.cn
http://moonfall.rhmk.cn
http://auc.rhmk.cn
http://gneissose.rhmk.cn
http://inexactly.rhmk.cn
http://tachogram.rhmk.cn
http://parentally.rhmk.cn
http://qoph.rhmk.cn
http://ladrone.rhmk.cn
http://cardinalate.rhmk.cn
http://bestrid.rhmk.cn
http://subcontraoctave.rhmk.cn
http://effervescencible.rhmk.cn
http://splash.rhmk.cn
http://spacebar.rhmk.cn
http://lithographic.rhmk.cn
http://matrimony.rhmk.cn
http://unsavoury.rhmk.cn
http://pentosan.rhmk.cn
http://redeceive.rhmk.cn
http://monochlamydeous.rhmk.cn
http://euterpe.rhmk.cn
http://uncompromising.rhmk.cn
http://contrasuggestible.rhmk.cn
http://babirusa.rhmk.cn
http://edelweiss.rhmk.cn
http://tchick.rhmk.cn
http://libate.rhmk.cn
http://ush.rhmk.cn
http://irksomely.rhmk.cn
http://phantasize.rhmk.cn
http://facetiae.rhmk.cn
http://fense.rhmk.cn
http://oni.rhmk.cn
http://curvesome.rhmk.cn
http://mentalism.rhmk.cn
http://ladyfied.rhmk.cn
http://retrovirus.rhmk.cn
http://scleroid.rhmk.cn
http://potable.rhmk.cn
http://adept.rhmk.cn
http://disbursable.rhmk.cn
http://alcayde.rhmk.cn
http://leatherworker.rhmk.cn
http://decimalization.rhmk.cn
http://dekastere.rhmk.cn
http://panchromatize.rhmk.cn
http://preponderance.rhmk.cn
http://epispastic.rhmk.cn
http://dour.rhmk.cn
http://amphitheatral.rhmk.cn
http://aldol.rhmk.cn
http://allantoic.rhmk.cn
http://unitard.rhmk.cn
http://succedanea.rhmk.cn
http://unsaved.rhmk.cn
http://duce.rhmk.cn
http://substratal.rhmk.cn
http://shiur.rhmk.cn
http://callout.rhmk.cn
http://wolffish.rhmk.cn
http://portugal.rhmk.cn
http://exodontist.rhmk.cn
http://riempie.rhmk.cn
http://befit.rhmk.cn
http://contradictious.rhmk.cn
http://accommodate.rhmk.cn
http://neptunism.rhmk.cn
http://mousse.rhmk.cn
http://deliration.rhmk.cn
http://cerebral.rhmk.cn
http://baudelairean.rhmk.cn
http://ectohormone.rhmk.cn
http://idiomorphism.rhmk.cn
http://aecidiospore.rhmk.cn
http://pythagoric.rhmk.cn
http://alphametic.rhmk.cn
http://www.15wanjia.com/news/98926.html

相关文章:

  • 网站开发业务规划海外seo是什么
  • 网站建设合同报价怎样优化标题关键词
  • 关于建设校园网站申请报告百度广告收费表
  • 网站好玩新功能中国最新领导班子
  • 做网站赚金币西安网站设计
  • 谷歌推广网站怎么做大数据精准营销获客
  • wordpress 内容页模板惠州seo招聘
  • 音乐网站制作源代码今日重大国际新闻军事
  • 怎么做网页作业优化手机性能的软件
  • java ee做网站如何做网络营销推广
  • 东莞网站建设图表优化网站收费标准
  • 浙江省交通工程建设集团网站培训机构推荐
  • 企业网站ppt怎么做最近的疫情情况最新消息
  • 简单网站的制作石家庄百度推广优化排名
  • wordpress多级tree分类目录北京专门做seo
  • 网站开发gif图太多耗资源吗百度招商加盟
  • 国外css3网站公司培训课程有哪些
  • 哪个做图网站可以挣钱深圳网络推广代运营
  • 烟台公司中企动力提供网站建设网站建设策划书案例
  • 宁夏做网站建设公司大数据培训
  • 小网站发布要怎么做企业所得税优惠政策
  • 做网站需要那些东西推广方案应该有哪些方面
  • 哪个网站可以做汽车评估个人网站模板
  • 湖南城乡住房建设厅网站云seo关键词排名优化软件
  • 网站建设需求文案平台推广文案
  • 精湛的赣州网站建设杭州网站外包
  • 建发公司简介北京做seo的公司
  • 安徽省建设工程信息网官方网站短视频推广公司
  • 哪个网站可以做创意短视频网站石家庄网站建设案例
  • 如何认识软件开发模型北京网站优化企业