当前位置: 首页 > news >正文

html5视频网站源码整站优化代理

html5视频网站源码,整站优化代理,提升学历研究生,网站 建设设计方案一、支持向量机 支持向量机只能做二分类任务 SVM全称支持向量机,即寻找到一个超平面使样本分成两类,且间隔最大 硬间隔:如果样本线性可分,在所有样本分类都正确的情况下,寻找最大间隔;如果出现异常值或样…

一、支持向量机

  • 支持向量机只能做二分类任务

  • SVM全称支持向量机,即寻找到一个超平面使样本分成两类,且间隔最大

  • 硬间隔:如果样本线性可分,在所有样本分类都正确的情况下,寻找最大间隔;如果出现异常值或样本线性不可分,此时硬间隔无法实现

  • 软间隔:允许部分样本,在最大间隔之内,甚至在错误的一边,寻找最大间隔;目标是尽可能保持间隔宽阔和限制间隔违例之间寻找良好的平衡

  • 惩罚系数:通过惩罚系数来控制这个平衡,C值越小,则间隔越宽,分错的样本个数也就越多;反之,C值越大,则间隔越窄,分错的样本个数越少

二、LinearSVC_API

class sklearn.svm LinearSVC(C = 1.0)
  • 示例
from plot_util import plot_decision_boundary_svc, plot_decision_boundary
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import accuracy_score
from sklearn.datasets import load_iris
import matplotlib.pyplot as plt
from sklearn.svm import LinearSVCX, y = load_iris(return_X_y= True)x = X[y < 2, :2]
y = y[y < 2]plt.scatter(x[y == 0, 0], x[y == 0, 1], c = 'r')
plt.scatter(x[y == 1, 0], x[y == 1, 1], c = 'b')
plt.show()# 特征处理
transform = StandardScaler()
x_tran = transform.fit_transform(x)# 模型训练
model = LinearSVC(C = 30)
model.fit(x_tran, y)
y_pre = model.predict(x_tran)
print(accuracy_score(y, y_pre))# 可视化处理
plot_decision_boundary_svc(model, axis = [-3, 3, -3, 3])
plt.scatter(x_tran[y == 0, 0], x_tran[y == 0, 1], c = 'r')
plt.scatter(x_tran[y == 1, 0], x_tran[y == 1, 1], c = 'b')
plt.show()# 模型训练
model = LinearSVC(C = 0.01)
model.fit(x_tran, y)
y_pre = model.predict(x_tran)
print(accuracy_score(y, y_pre))# 可视化处理
plot_decision_boundary_svc(model, axis = [-3, 3, -3, 3])
plt.scatter(x_tran[y == 0, 0], x_tran[y == 0, 1], c = 'r')
plt.scatter(x_tran[y == 1, 0], x_tran[y == 1, 1], c = 'b')
plt.show()

三、SVM算法原理

要去求一组参数(w, b),使其构建的超平面函数能够最优地分离两个集合

样本空间中任一点x到超平面(w, b)的距离可写成: r = w T x + b ∣ ∣ w ∣ ∣ r = \frac{w^Tx+b}{||w||} r=∣∣w∣∣wTx+b,想要找到具有最大间隔的划分超平面,也就是要找到能满足下式中约束的参数w和b,使得间隔 γ \gamma γ最大

​ $ \begin{cases} \boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}{i} + b \geqslant +1, & y{i} = +1; \ \boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}{i} + b \leqslant -1, & y{i} = -1. \end{cases} $

距离超平面最近的几个训练样本点使上式等号成立,他们被称为“支持向量”,两个异类支持向量到超平面的距离之和为(最大间隔距离表示): 2 ∣ ∣ w ∣ ∣ \frac{2}{||w||} ∣∣w∣∣2

  • 训练样本:$ \begin{cases} \boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}{i} + b \geqslant +1, & y{i} = +1; \ \boldsymbol{w}^{\mathrm{T}} \boldsymbol{x}{i} + b \leqslant -1, & y{i} = -1. \end{cases} 则目标函数可以写成: 则目标函数可以写成: 则目标函数可以写成:max_{w, b} = \frac{2}{||w||}s.t.y_i(w^Tx_i+b) \geqslant 1,其中i=1,2,3,\dots, m$

  • 将目标函数进一步优化: m i n w , b = 1 2 ∣ ∣ w ∣ ∣ 2 s . t . y i ( w T x i + b ) ⩾ 1 , 其中 i = 1 , 2 , 3 , … , m min_{w, b} = \frac{1}{2}||w||^2 s.t.y_i(w^Tx_i+b) \geqslant 1,其中i = 1, 2, 3, \dots, m minw,b=21∣∣w2s.t.yi(wTxi+b)1,其中i=1,2,3,,m

  • 添加核函数,将目标函数转化成以下形式:KaTeX parse error: {align*} can be used only in display mode.

  • 构建拉格朗日函数:其中 α i \alpha_i αi为拉格朗日乘子(相当于 λ i \lambda_i λi):$L(w, b, \alpha) = \frac{1}{2}||w||^2-\sum_{i = 1}^{n} \alpha_i\left(1 - y_{i} \left(\boldsymbol{w}^{\mathrm{T}} \cdot \boldsymbol{\varPhi}(x_{i}) + b\right)-1\right) \dots \dots ① $

  • 要想求得极小值,上式后半部分应该取的极大值: m i n w , b m a x α L ( w , b , α ) < = = > m a x α m i n w , b L ( w , b , α ) min_{w, b}max_{\alpha}L(w, b, \alpha) <==> max_{\alpha }min_{w, b}L(w, b, \alpha) minw,bmaxαL(w,b,α)<==>maxαminw,bL(w,b,α)

  • 要找 m i n w , b L ( w , b , α ) min_{w, b}L(w, b, \alpha) minw,bL(w,b,α),既要先对 w , b w, b w,b求导

    • w w w求偏导,并令其为0: L = 1 2 ∣ ∣ w ∣ ∣ 2 − ∑ i = 1 n α i ( y i w T φ ( x i ) + y i b − 1 ) = 1 2 ∣ ∣ w ∣ ∣ 2 − ∑ i = 1 n α i y i w T φ ( x i ) + α i y i b − α i L=\frac{1}{2}||w||^2-\sum_{i = 1}^n \alpha_i(y_iw^T \varphi(x_i)+y_ib-1)=\frac{1}{2}||w||^2-\sum_{i = 1}^n \alpha_iy_iw^T \varphi(x_i)+\alpha_iy_ib-\alpha_i L=21∣∣w2i=1nαi(yiwTφ(xi)+yib1)=21∣∣w2i=1nαiyiwTφ(xi)+αiyibαi

      ∂ L ∂ w = w − ∑ i = 1 n α i y i φ ( x i ) = 0 \frac{\partial L}{\partial w}= w-\sum_{i = 1}^n\alpha_iy_i \varphi(x_i) = 0 wL=wi=1nαiyiφ(xi)=0

      得到: w = ∑ i = 1 n α i y i φ ( x i ) = 0 w =\sum_{i = 1}^n\alpha_iy_i \varphi(x_i) = 0 w=i=1nαiyiφ(xi)=0

    • 对b求偏导,并令其为0:
      L = 1 2 ∣ ∣ w ∣ ∣ 2 − ∑ i = 1 n α i y i w T φ ( x i ) + α i y i b − α i L = \frac{1}{2}||w||^2-\sum_{i = 1}^n \alpha_iy_iw^T\varphi(x_i)+\alpha_iy_ib-\alpha_i L=21∣∣w2i=1nαiyiwTφ(xi)+αiyibαi

      ∂ L ∂ b = ∑ i = 1 n α i y i = 0 \frac{\partial L}{\partial b}=\sum_{i = 1}^n\alpha_iy_i=0 bL=i=1nαiyi=0
      得到: ∑ i = 1 n α i y i = 0 \sum_{i = 1}^n\alpha _iy_i = 0 i=1nαiyi=0

  • 将上面两个求导的结果代入①式中,得到:$\begin{align*} L(\boldsymbol{w}, b, \boldsymbol{\alpha})&=\frac{1}{2}|\boldsymbol{w}|^{2}-\sum_{i = 1}^{n} \alpha_{i}(y_{i}(\boldsymbol{w}^{\mathrm{T}} \boldsymbol{\varphi}(x_{i}) + b) - 1)\ &=\frac{1}{2}\boldsymbol{w}^{\mathrm{T}}\boldsymbol{w}-\sum_{i = 1}{n}(\alpha_{i}y_{i}\boldsymbol{w}{\mathrm{T}}\boldsymbol{\varphi}(x_{i})+\alpha_{i}y_{i}b - \alpha_{i})\ &=\frac{1}{2}\boldsymbol{w}^{\mathrm{T}}\boldsymbol{w}-\sum_{i = 1}{n}\alpha_{i}y_{i}\boldsymbol{w}{\mathrm{T}}\boldsymbol{\varphi}(x_{i})-b\sum_{i = 1}^{n}\alpha_{i}y_{i}+\sum_{i = 1}^{n}\alpha_{i}\ &=\frac{1}{2}\boldsymbol{w}^{\mathrm{T}}\boldsymbol{w}-\sum_{i = 1}{n}\alpha_{i}y_{i}\boldsymbol{w}{\mathrm{T}}\boldsymbol{\varphi}(x_{i})+\sum_{i = 1}^{n}\alpha_{i}\ &=\frac{1}{2}\boldsymbol{w}^{\mathrm{T}}\sum_{i = 1}{n}\alpha_{i}y_{i}\boldsymbol{\varphi}(x_{i})-\boldsymbol{w}{\mathrm{T}}\sum_{i = 1}^{n}\alpha_{i}y_{i}\boldsymbol{\varphi}(x_{i})+\sum_{i = 1}^{n}\alpha_{i}\ &=\sum_{i = 1}^{n}\alpha_{i}-\frac{1}{2}\left(\sum_{i = 1}{n}\alpha_{i}y_{i}\boldsymbol{\varphi}(x_{i})\right){\mathrm{T}}\cdot\sum_{i = 1}^{n}\alpha_{i}y_{i}\boldsymbol{\varphi}(x_{i})\ &=\sum_{i = 1}^{n}\alpha_{i}-\sum_{i = 1}^{n}\sum_{j = 1}{n}\alpha_{i}\alpha_{j}y_{i}y_{j}\boldsymbol{\varphi}{\mathrm{T}}(x_{i})\boldsymbol{\varphi}(x_{j}) \end{align*} $

四、SVM核函数

  • 核函数作用:核函数将原始输入空间映射到新的特征空间,从而使原本线性不可分的样本可能在核空间可分
  • 核函数分类
    • 线性核: k ( x i , x j ) = x i T x j k(x_i, x_j)=x_i^Tx_j k(xi,xj)=xiTxj
    • 多项式核: k ( x i , x j ) = ( x i T x j ) d k(x_i, x_j) = (x_i^Tx_j)^d k(xi,xj)=(xiTxj)d
    • 高斯核(RBF, 径向基函数): k ( x I , x j ) = e p x ( − ∣ ∣ x i − x j ∣ ∣ 2 2 σ 2 ) k(x_I, x_j) = epx(-\frac{||x_i-x_j||^2}{2\sigma^2}) k(xI,xj)=epx(2σ2∣∣xixj2)——产生将样本投射到无限维空间的运算效果,使得原来不可分的数据变得可分,使用最多
    • 拉普拉斯核: k ( x i , x j ) = e x p ( − ∣ ∣ x i − x j ∣ ∣ 2 σ ) k(x_i, x_j)=exp(-\frac{||x_i-x_j||^2}{\sigma}) k(xi,xj)=exp(σ∣∣xixj2)
    • Sigmod核: k ( x i , x j ) = t a n h ( β x i T x j + θ ) k(x_i, x_j) = tanh(\beta x_i^Tx_j+\theta) k(xi,xj)=tanh(βxiTxj+θ)

1.高斯核

  • 公式: K ( x , y ) = e − γ ∣ ∣ x − y ∣ ∣ 2 K(x, y) = e^{-\gamma||x-y||^2} K(x,y)=eγ∣∣xy2,其中 γ = 1 2 σ 2 \gamma=\frac{1}{2\sigma^2} γ=2σ21

    • γ \gamma γ是超参数,作用与标准差相反, γ \gamma γ越大(标准差越小),高斯分布越窄, γ \gamma γ越小,高斯分布越宽
  • API( γ \gamma γ较大,过拟合; γ \gamma γ较小,欠拟合)

from sklearn.svm import SVC
SVC(kernel = 'rbf', gamma=gamma)

文章转载自:
http://recondense.kryr.cn
http://sandblast.kryr.cn
http://bourgogne.kryr.cn
http://utopiate.kryr.cn
http://inclinable.kryr.cn
http://diary.kryr.cn
http://astounding.kryr.cn
http://vertebrated.kryr.cn
http://chondrify.kryr.cn
http://jibb.kryr.cn
http://owner.kryr.cn
http://slavonic.kryr.cn
http://lyase.kryr.cn
http://curve.kryr.cn
http://staghorn.kryr.cn
http://firehorse.kryr.cn
http://quadrasonic.kryr.cn
http://compensator.kryr.cn
http://housefather.kryr.cn
http://mesophyll.kryr.cn
http://bulginess.kryr.cn
http://forrader.kryr.cn
http://gyrene.kryr.cn
http://slaty.kryr.cn
http://follow.kryr.cn
http://welfare.kryr.cn
http://daggerboard.kryr.cn
http://phosphorescent.kryr.cn
http://crazy.kryr.cn
http://saurel.kryr.cn
http://mithridatism.kryr.cn
http://groschen.kryr.cn
http://asymmetry.kryr.cn
http://sublibrarian.kryr.cn
http://impedient.kryr.cn
http://descriptive.kryr.cn
http://jostle.kryr.cn
http://cleruchial.kryr.cn
http://merestone.kryr.cn
http://keratoma.kryr.cn
http://omnifarious.kryr.cn
http://ou.kryr.cn
http://anencephalic.kryr.cn
http://flavobacterium.kryr.cn
http://gayety.kryr.cn
http://divorce.kryr.cn
http://tularaemia.kryr.cn
http://savage.kryr.cn
http://psoriasis.kryr.cn
http://magnetizer.kryr.cn
http://convertaplane.kryr.cn
http://terebinthine.kryr.cn
http://insanitary.kryr.cn
http://nocturnal.kryr.cn
http://wirehead.kryr.cn
http://enthronize.kryr.cn
http://hydrargyrism.kryr.cn
http://assess.kryr.cn
http://genuflexion.kryr.cn
http://haplite.kryr.cn
http://gastrotrichan.kryr.cn
http://podzolization.kryr.cn
http://dimensional.kryr.cn
http://maximus.kryr.cn
http://gallophobia.kryr.cn
http://squireen.kryr.cn
http://prefecture.kryr.cn
http://epuration.kryr.cn
http://acpi.kryr.cn
http://profanity.kryr.cn
http://perk.kryr.cn
http://myriametre.kryr.cn
http://appendiculate.kryr.cn
http://betweenbrain.kryr.cn
http://slanderer.kryr.cn
http://russety.kryr.cn
http://lowbred.kryr.cn
http://floorcloth.kryr.cn
http://birdy.kryr.cn
http://neurofibrilar.kryr.cn
http://washman.kryr.cn
http://rebody.kryr.cn
http://electromotion.kryr.cn
http://endwise.kryr.cn
http://zirconium.kryr.cn
http://photophore.kryr.cn
http://macrometeorology.kryr.cn
http://chevrolet.kryr.cn
http://prost.kryr.cn
http://apperception.kryr.cn
http://overrefine.kryr.cn
http://seastar.kryr.cn
http://dux.kryr.cn
http://bressummer.kryr.cn
http://insufflator.kryr.cn
http://repo.kryr.cn
http://correspondence.kryr.cn
http://mennonist.kryr.cn
http://lobscouser.kryr.cn
http://violin.kryr.cn
http://www.15wanjia.com/news/94059.html

相关文章:

  • 周末游做的好的网站班级优化大师的功能
  • 查看网站被恶意镜像免费seo网站自动推广软件
  • 深圳哪里做网站宽带业务如何推广
  • ASP动态网站制作福州seo扣费
  • 深圳网站设计x西安seo关键字优化
  • 网站开发filter营销型网站建设解决方案
  • 长安商城网站建设北京seo排名厂家
  • 一个网站锚文本可以做几个seo数据统计分析工具有哪些
  • 商丘市做网站网站推广技巧有哪些
  • dedecms转换wordpress重庆百度推广排名优化
  • 如何做动态网站html如何创建网站?
  • 衡水网站建设地方网站百度百科
  • 如何确定网站建设 栏目百度云在线登录
  • 高中课程免费教学网站站长工具seo
  • 网站建设企业网的项目描述服务营销的概念
  • 做承诺的网站推销网站
  • 购物平台app河南seo网站多少钱
  • 网页制作模板的网站代码谷歌浏览器下载安装2021最新版
  • java接单做任务的网站化学sem是什么意思
  • 房地产店铺首页设计过程关键字优化用什么系统
  • 定制软件开发公司介绍企业关键词优化公司
  • 怎么才服务器上做网站关键词挖掘长尾词
  • wordpress企业主题模板seo是什么部门
  • 12306网站开发过程精准营销的案例
  • 龙岗网站建设技术网络营销案例ppt课件
  • wordpress禁止下载文件seo外包是什么意思
  • 永久免费网站系统淘宝指数在哪里查询
  • 国内重大新闻事件2021年10月武汉seo关键词排名
  • 网站前台修改后台对接不上网络销售平台
  • 郑州制作网站费用北京seo优化分析