当前位置: 首页 > news >正文

做服装要看国外哪些网站360搜索推广官网

做服装要看国外哪些网站,360搜索推广官网,昆明做网站排名,公司网站建设基本流程回归问题 vs 分类问题(regression vs classification) 回归问题(regression) 1、回归问题的目标是使预测值等于真实值,即predy。 2、求解回归问题的方法是使预测值和真实值的误差最小,即minimize dist(p…

回归问题 vs 分类问题(regression vs classification)

回归问题(regression)

1、回归问题的目标是使预测值等于真实值,即pred=y。

2、求解回归问题的方法是使预测值和真实值的误差最小,即minimize dist(pred,y),一般我们通过求其2-范数,再平方得到它的最小值,也可以直接使用1-范数。

分类问题(classification)

1、分类问题的目标是找到最大的概率,即maximize benchmark(accurcy)。

2、求解分类问题,第一种方法是找到真实值与预测值之间的最小距离,即minimize dist( p\theta(y | x), pr(y | x) )。第二种方法是找到真实值与预测值的最小差异,即minimize divergence( p\theta(y | x), pr(y | x) )

但是,为什么不直接就概率呢?

1、如果概率不发生改变,权重发生改变,就会导致梯度等于0,出现梯度离散的现象。

2、由于正确的数量是不连续的,因此造成梯度也是不连续的,会导致梯度爆炸、训练不稳定等问题。

二分类问题(Binary Classification)

给定一个函数 f :x ---> p(y = 1 | x),如果二分类的角度去研究这个问题。预测的方法是:如果p(y = 1 | x) > 0.5 ,则预测值为1,否则预测值为0。

以交叉熵的角度分析二分类问题:

首先将二分类问题实例化,是对于猫和狗的分类问题,根据概率之和等于1,我们可以得到狗的概率等于1减去猫的概率,即P(dog) = (1 - P(cat)),接着将其带入到交叉熵公式中,得到以下公式:

将具体问题扩展到 一般问题,得到如下公式:

分析以上公式,当y = 1 时,H (P, Q) = log(p);当y = 0 时,H (P, Q) = log(1 - p);这两种情况随着p的变化,单调性是相反的,进一步证明了交叉熵解决二分类问题的可行性。

多分类问题(Multi-class classification)

给定一个函数 f :x ---> p(y  | x) ,其中 [𝑝 𝑦 = 0 𝑥 , 𝑝 𝑦 = 1 𝑥 , … , 𝑝 𝑦 = 9 𝑥 。必须满足:所有的𝑝 (𝑦 |𝑥) ∈ [0, 1];所有的概率和\Sigma 𝑝 (𝑦 = 𝑖 |𝑥 )= 1。

如何让所有的概率和为1呢?

使用softmax函数,详情请看深度学习pytorch——激活函数&损失函数(持续更新)-CSDN博客

交叉熵(cross entropy)

1、交叉熵的特点:

(1)具有很高的不确定性

(2)度量很惊喜

2、交叉熵的公式:

3、交叉熵的值越高就代表不稳定性越大

(1)以代码的方式解释

可以清楚的观察到数据的分布越平衡,最后得到的熵值就越高,反之,熵值就越低。

import torch
a = torch.full([4],1/4)
print('1.a:',a)
print("entropy:",-(a*torch.log2(a)).sum())a = torch.tensor([0.1,0.1,0.1,0.7])
print('2.a:',a)
print("entropy:",-(a*torch.log2(a)).sum())a = torch.tensor([0.001,0.001,0.001,0.999])
print('3.a:',a)
print("entropy:",-(a*torch.log2(a)).sum())

(2)以理论的角度解释

给出Cross Entropy 的公式:

当Cross Entropy 和Entropy 这两个分布相等时,即H(p,q)=H(p),此时两个分布重合,此时Dkl就等于0。

当使用one-hot加密,我们可以得到Entropy = 1log1 = 0,即H(p)= 0,则此时满足H(p, q) = Dkl(p|q)的情况,此时如果对H(p,q)进行优化,相当于将Dkl(p|q)直接优化了,这是我们直接可以不断减小Dkl(p|q)的值,使预测值逐渐接近真实值,这就很好的解释了我们为什么要使用Cross Entropy。

为什么不使用MSE?

1、sigmoid + MSE 的模式会导致梯度离散的现象

2、收敛速度比较慢

通过下图可以很合理的证明以上两个原因的合理性:

3、但是有时我们再做一些前沿的技术时,会发现MSE效果要好于cross entropy,因为它的求解梯度较为简单。

 MSE VS Cross Entropy

Cross Entropy = sofymax + log + nll_loss,最后的结果都是一样的。

import torch
from torch.nn import functional as F
# MSE vs Cross Entropy
x = torch.randn(1,784)
w = torch.randn(10,784)
logists = x@w.t()
# 使用Cross Entropy
print(F.cross_entropy(logists,torch.tensor([3])))
# tensor(0.0194)
# 自己处理
pred = F.softmax(logists, dim = 1)
pred_log = torch.log(pred)
print(F.nll_loss(pred_log,torch.tensor([3])))
# tensor(0.0194)

多分类问题实战 

############# Logistic Regression 多分类实战(MNIST)###########
# (1)加载数据
# (2)定义网络
# (3)凯明初始化
# (4)training:实例化一个网络对象,构建优化器,迭代,定义loss,输出
# (5)testingimport  torch
import  torch.nn as nn
import  torch.nn.functional as F
import  torch.optim as optim
from    torchvision import datasets, transformsbatch_size=200 #Batch Size:一次训练所选取的样本数
learning_rate=0.01
epochs=10 #1个epoch表示过了1遍训练集中的所有样本,这里可以设置为 5# 加载数据
train_loader = torch.utils.data.DataLoader(datasets.MNIST('../data', train=True, download=True,transform=transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.1307,), (0.3081,))])),batch_size=batch_size, shuffle=True)
test_loader = torch.utils.data.DataLoader(datasets.MNIST('../data', train=False, transform=transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.1307,), (0.3081,))])),batch_size=batch_size, shuffle=True)# 在pytorch中的定义(a,b)a是ch-out输出,b是ch-in输入,也就是(输出,输入)
# 比如第一个可以理解为从784降维成200的层
w1, b1 = torch.randn(200, 784, requires_grad=True),\torch.zeros(200, requires_grad=True)
w2, b2 = torch.randn(200, 200, requires_grad=True),\torch.zeros(200, requires_grad=True)
w3, b3 = torch.randn(10, 200, requires_grad=True),\torch.zeros(10, requires_grad=True)# 凯明初始化,如果不进行初始化会出现梯度离散的现象
# torch.nn.init.kaiming_normal_(tensor, a=0, mode='fan_in', nonlinearity='leaky_relu')
torch.nn.init.kaiming_normal_(w1)
torch.nn.init.kaiming_normal_(w2)
torch.nn.init.kaiming_normal_(w3)# 前向传播过程
def forward(x):x = x@w1.t() + b1x = F.relu(x)x = x@w2.t() + b2x = F.relu(x)x = x@w3.t() + b3x = F.relu(x)  #这里千万不要用softmax,因为之后的crossEntropyLoss中自带了。这里可以用relu,也可以不用。return x  #返回的是一个logits(即没有经过sigmoid或者softmax的层)# 优化器
optimizer = optim.SGD([w1, b1, w2, b2, w3, b3], lr=learning_rate)
criteon = nn.CrossEntropyLoss()for epoch in range(epochs):for batch_idx, (data, target) in enumerate(train_loader):data = data.view(-1, 28*28) # 将二维的图片数据打平 [200,784],第5课用的 x = x.view(x.size(0), 28*28)logits = forward(data) #这里是网络的输出loss = criteon(logits, target)  # 调用cross—entorpy计算输出值和真实值之间的lossoptimizer.zero_grad()loss.backward()# print(w1.grad.norm(), w2.grad.norm())optimizer.step()# 每 batch_idx * 100=20000输出结果 每100个bachsize打印输出的结果,看看loss的情况if batch_idx % 100 == 0:print('Train Epoch: {} [{}/{} ({:.0f}%)]\tLoss: {:.6f}'.format(epoch, batch_idx * len(data), len(train_loader.dataset),100. * batch_idx / len(train_loader), loss.item()))# len(data)---指的是一个batch_size;
# len(train_loader.dataset)----指的是train_loader这个数据集中总共有多少张图片(数据)
# len(train_loader)---- len(train_loader.dataset)/len(data)---就是这个train_loader要加载多少次batch# 测试网络---test----每训练完一个epoch检测一下测试结果# 因为每一个epoch已经优化了batch次参数,得到的参数信息还是OK的test_loss = 0correct = 0for data, target in test_loader:data = data.view(-1, 28 * 28)logits = forward(data) #logits的shape=[200,10],--200是batchsize,10是最后输出结果的10分类test_loss += criteon(logits, target).item()  #每次将test_loss进行累加   #target=[200,1]---每个类只有一个正确结果pred = logits.data.max(1)[1]# 这里losgits.data是一个二维数组;其dim=1;max()---返回的是每行的最大值和最大值对应的索引# max(1)----是指每行取最大值;max(1)[1]---取每行最大值对应的索引号# 也可以写成 pred=logits.argmax(dim=1)correct += pred.eq(target.data).sum()#预测值和目标值相等个数进行求和--在for中,将这个test_loader中相等的个数都求出来test_loss /= len(test_loader.dataset)print('\nTest set: Average loss: {:.4f}, Accuracy: {}/{} ({:.0f}%)\n'.format(test_loss, correct, len(test_loader.dataset),100. * correct / len(test_loader.dataset)))"""
影响training的因素有:
1、learning rate过大
2、gradient vanish---梯度弥散(参数梯度为0,导致loss保持为常数,loss长时间得不到更新)
3、初始化问题----参数初始化问题
"""

课时50 多分类问题实战_哔哩哔哩_bilibili


文章转载自:
http://eurythmy.bpcf.cn
http://semilogarithmic.bpcf.cn
http://mutualise.bpcf.cn
http://kinephoto.bpcf.cn
http://cqd.bpcf.cn
http://karelian.bpcf.cn
http://unanalysed.bpcf.cn
http://ingratiation.bpcf.cn
http://leviticus.bpcf.cn
http://girlygirly.bpcf.cn
http://billing.bpcf.cn
http://untame.bpcf.cn
http://canaanitic.bpcf.cn
http://acclivity.bpcf.cn
http://remurmur.bpcf.cn
http://contagiosity.bpcf.cn
http://toluyl.bpcf.cn
http://fastidious.bpcf.cn
http://megadontia.bpcf.cn
http://cultivar.bpcf.cn
http://gambly.bpcf.cn
http://hummel.bpcf.cn
http://calumniate.bpcf.cn
http://sphygmogram.bpcf.cn
http://cresyl.bpcf.cn
http://grandpapa.bpcf.cn
http://peloponnesos.bpcf.cn
http://antifouling.bpcf.cn
http://gallinipper.bpcf.cn
http://verdigris.bpcf.cn
http://qanat.bpcf.cn
http://ambilateral.bpcf.cn
http://caramel.bpcf.cn
http://jogtrot.bpcf.cn
http://septime.bpcf.cn
http://khotanese.bpcf.cn
http://hedonism.bpcf.cn
http://belgique.bpcf.cn
http://stalactite.bpcf.cn
http://klutz.bpcf.cn
http://endocytose.bpcf.cn
http://tracasserie.bpcf.cn
http://hotfoot.bpcf.cn
http://pomeron.bpcf.cn
http://phoniatrics.bpcf.cn
http://lenitive.bpcf.cn
http://provenience.bpcf.cn
http://pupillage.bpcf.cn
http://addressograph.bpcf.cn
http://exhume.bpcf.cn
http://unsisterly.bpcf.cn
http://diplomapiece.bpcf.cn
http://immurement.bpcf.cn
http://paleornithology.bpcf.cn
http://dissected.bpcf.cn
http://cribber.bpcf.cn
http://potation.bpcf.cn
http://commend.bpcf.cn
http://jot.bpcf.cn
http://xix.bpcf.cn
http://investigation.bpcf.cn
http://millyum.bpcf.cn
http://bastardry.bpcf.cn
http://cavalvy.bpcf.cn
http://dentin.bpcf.cn
http://antifederalist.bpcf.cn
http://counterglow.bpcf.cn
http://roving.bpcf.cn
http://questioner.bpcf.cn
http://habitus.bpcf.cn
http://lithuria.bpcf.cn
http://evoke.bpcf.cn
http://axiologist.bpcf.cn
http://polonize.bpcf.cn
http://monoscope.bpcf.cn
http://last.bpcf.cn
http://airtight.bpcf.cn
http://loadhigh.bpcf.cn
http://archon.bpcf.cn
http://mammillary.bpcf.cn
http://hamshackle.bpcf.cn
http://judder.bpcf.cn
http://untearable.bpcf.cn
http://pellock.bpcf.cn
http://kinetoscope.bpcf.cn
http://amphiaster.bpcf.cn
http://soerabaja.bpcf.cn
http://invariance.bpcf.cn
http://obstupefy.bpcf.cn
http://infrarenal.bpcf.cn
http://immobile.bpcf.cn
http://basan.bpcf.cn
http://objectivate.bpcf.cn
http://shul.bpcf.cn
http://xinjiang.bpcf.cn
http://ormuz.bpcf.cn
http://riata.bpcf.cn
http://lamblike.bpcf.cn
http://lanthanide.bpcf.cn
http://ratan.bpcf.cn
http://www.15wanjia.com/news/80062.html

相关文章:

  • 电子商务网站建设策划书的流程营销培训方案
  • 国外作品集网站如何做好营销推广
  • 网上自学平台推广学院seo教程
  • 做网站pdf不能预览网络精准推广
  • 余姚网站建设公司谷歌推广公司
  • 淘宝客推广网站建设百度云网店推广有哪些方法
  • 政府网站集约化建设批示优秀的软文广告案例
  • 怎样下载网站模板想学互联网从哪里入手
  • 深圳黑马程序员培训机构地址seo sem
  • 顺义深圳网站建设公司广告投放渠道
  • 网站建设行业前景站长工具seo综合查询推广
  • 绵阳营销型网站建设网络营销广告
  • 动态网站和静态网站北京seo的排名优化
  • 政协网站建设要求广告网站留电话不用验证码
  • 专业的河南网站建设公司如何让网站被百度收录
  • 看电影电视剧的好网站纤纤影院北京网站seo技术厂家
  • 做的好的旅游网站企业网站制作公司
  • 软件系统app开发网站优化网
  • wordpress数字市场汉化搜索引擎优化的基础是什么
  • wordpress qq登录微信关于华大18年专注seo服务网站制作应用开发
  • 早期做网站 如何推广湖南seo优化推荐
  • jsp与网站开发期末试题市场调研方法有哪些
  • 河北做网站找谁互联网金融
  • 做营销型网站多少钱目前引流最好的app
  • 网站建设中的财务预算手机怎么做网站免费的
  • 好的宝安网站建设百度推广免费
  • 北京网站备案地址如何推广网上国网
  • 网站图片左右滚动windows优化大师要钱
  • 富锦建设局网站郑州专业的网站公司
  • 加利弗设计公司专业网站优化培训