当前位置: 首页 > news >正文

海珠区网站建设企业网络

海珠区网站建设,企业网络,用ps做网站页面,品牌设计公司的业务领域原创文章,转载请说明来自《老饼讲解神经网络》:www.bbbdata.com 关于《老饼讲解神经网络》: 本网结构化讲解神经网络的知识,原理和代码。 重现matlab神经网络工具箱的算法,是学习神经网络的好助手。 目录 一、入门原理解说 01.…

原创文章,转载请说明来自《老饼讲解神经网络》:www.bbbdata.com

关于《老饼讲解神经网络》:

本网结构化讲解神经网络的知识,原理和代码。

重现matlab神经网络工具箱的算法,是学习神经网络的好助手。 


目录

一、入门原理解说

01. 基于Kohonen规则的聚类算法  

02.  SOM聚类的思想  

03.  SOM神经网络的拓扑图  

04.  SOM的模型表达式  

编后语  

二、SOM-代码重写(单样本训练)

01. 代码结构说明  

02. 代码运行结果解说

03. 具体代码



SOM神经网络(Self-organizing Feature Map)是Kohonen在1981年提出的一种用于聚类的神经网络,是神经网络家族中经典、重要且广泛应用的一员。

本篇第一节先聚焦于讲清SOM是个什么东西,解决什么问题,思路是什么,有什么特性,
第二节则扒取matlab的源码,自写《SOM-单样本训练算法》,即用自己的代码逻辑重现matlab工具箱的效果。

  笔者语  


SOM不是一个困难的算法,但要讲清SOM,却是一个困难的问题。

笔者曾想一张文章讲完SOM,左揉右捏,后来发现,这鬼东西,越图快越不行。


为什么SOM必须慢慢讲述,主要是因为SOM的思想经历了三阶段:

  Kohonen规则   -->   单样本训练   -->   批量样本训练  

想直接讲述批量样本训练根本讲不了。

谨此,希望读者也不要图快,一步一步来。


 

一、入门原理解说


  01. 基于Kohonen规则的聚类算法  


  聚类问题  


口语描述:假设数据是一团团的,我们希望找出这些一团团数据的中心点(聚类中心),样本离哪个聚类中心最近,就将样本判为该聚类中心。

   基于Kohonen规则的聚类方法  


kohonen规则聚类很简单,

先随机初始化k个聚类中心点,

然后每次选出一个样本,将离它最近的聚类点往它移动,使该聚类点更靠近它,如此反复m次。


更新法则如下:

w_{k} = w_k+\text{lr}*(x-w_k)

其中,                                       
w_k:离样本最近的聚类中心点。
\text{lr} : 学习率。                             

   kohonen规则的有效性  


kohonen规则虽然简单,然而它却是行之有效的。

且看一个Demo:


平面中有四簇数据,
我们先随机初始化5个聚类中心点,
然后使用Kohonen规则调整聚类中心点的位置,

 
可以看到,经过一定步数后,聚类中心点移到了四类数据的中心位置附近。

Demo代码:


% Kohonen聚类规则
rand('seed',70);
%------------生成样本数据-------------
dataC = [2.5,2.5;7.5,2.5;2.5,7.5;7.5,7.5]; % 生成四个样本中心
sn = 40;  % 样本个数
X = rand(sn,2)+dataC(mod(1:sn,4)+1,:); % 随机生成样本点% -----------初始化聚类中心点--------------
kn = 5;              % 聚类中心点个数
C  = rand(kn,2)*10;  % 随机生成聚类中心
C0 = C;              % 备份聚类中心点的初始值% -----------使用样本训练聚类中心点-----------
lr = 0.1;   % 学习率
for t = 1:50for i = 1:sncur_x    = X(i,:);                             % 提取一个样本dist     = sum((repmat(cur_x,kn,1) - C).^2,2); % 计算样本到各个聚类中心点的距离[~,idx]  = min(dist);                          % 找出最近的聚类中心点C(idx,:) = C(idx,:)  + lr*(cur_x - C(idx,:));  % 将该聚类中心点往样本靠近end
end% ----------画图------------------------
subplot(1,2,1)
plot(X(:,1),X(:,2),'*');
hold on 
plot(C0(:,1),C0(:,2),'or','MarkerFaceColor','g');subplot(1,2,2)
plot(X(:,1),X(:,2),'*');
hold on 
plot(C(:,1),C(:,2),'or','MarkerFaceColor','g');

  02.  SOM聚类的思想  


SOM是Kohonen规则的改进,

它在更新离样本最近的聚类中心点P的的时候,会把P的邻近聚类中心点也一起更新。

请注意,初学者很容易误会,以为SOM所指的邻近聚类点就是目标聚类点附近的聚类点,其实不是,SOM对“邻近聚类点”有自己的定义。

  SOM聚类点的距离与邻近聚类点  


SOM是先引入一个拓扑结构,把所有聚类点连结在一起,然后籍此来定义距离。

拓扑结构


拓扑结构可以是一维的,二维的,三维的,等等,最常用是二维
例如最常用的二维六边形拓扑结构:




距离的定义



在SOM中,两点之间的距离,
是指在引入的拓扑结构中,这两点之间的最小边数。


邻近聚类点


点P的邻近聚类点是指与P的最小连结边数小于某个阈值的聚类点。
例如,
当邻域距离阈值为1时,点P的邻近聚类点,是与点P直接连接的点。    
当邻域距离阈值为2时,则是到达点P不超过2条边的聚类点。                
当邻域距离阈值为k时,就是指经过m(m<=k)条边可达点P的聚类点。

  SOM的更新方法  


SOM更新的方法与上面所说的Kohonen规则思想是一样的,
不同点在于,SOM在更新离样本最近的聚类中心点P的的时候,会把P的邻近聚类中心点也一起更新

    

更细节的,有以下三点:


1、更新邻近聚类点:
 
更新样本最近点P的同时,P的邻近聚类点也一起更新,(P的学习率要比邻近聚类点更大一些)。
  
  2、增加学习率的收缩机制:
随着更新步数,学习率越来越小。
 
  3、邻近距离收缩机制:
随着更新步数,邻近距离阈值越来越小,渐渐的,只有目标点及其邻边聚类点。 

比起纯粹的Kohonen规则,虽然改动不大,在代码编写上,却要复杂很多。
复杂是因为要初始化拓扑结构,获得点与点之间的距离矩阵(这里说的距离是上面所说的边数),以便在更新时获取邻近聚类点。

   说 明  


●  以上的更新方法来自matlab老版本的单样本训练算法(learnsom)。
●  matlab新版本已采用了批量更新算法(learnsomb)。             
两种方法的细节,我们都另起文章细讲,并扒出源码,重现matlab的实现逻辑。        

      

 

  03.  SOM神经网络的拓扑图  


  网络拓扑图  


SOM神经网络是典型的三层神经网络,
拓扑图如下:
 


第一层是输入层
第二层是隐层,

隐层有多少个隐节点,就代表有多少个聚类中心点 ( 聚类中心点的位置就是该隐节点与输入的连接权重 ) 。
第三层是输出层
输出层是one-hot格式(即[0 0 0 1]这样的格式),
它的节点与隐层节点个数一致,
它的值由隐层节点竞争得到, 即隐层节点哪个值最大,对应的输出节点就为1,其余为0。

  带隐层拓扑的网络拓扑图  


往往还会把隐层节点之间的拓扑结构一起画上,
 
则SOM的网络拓扑图会如下:
 


PASS:输出节点之间的拓扑结构对于最终模型的应用上是没有任何影响的,它只是在训练过程中需要使用。

  04.  SOM的模型表达式  


SOM的模型数学表达式为:


\text{y} = \textbf{compet}(-\textbf{dist}(x,W))

其中,

●  dist 为x和W的欧氏距离


例如,2输出3隐节点时, x=[x_1,x_2], W = \begin{bmatrix} w_{11} & w_{12} \\ w_{21} & w_{22} \\ w_{31} & w_{32} \end{bmatrix}

则:

\displaystyle \textbf{dist}(x,W) = \begin{bmatrix} \sqrt{(x_1- w_{11})^2+(x_1- w_{12})^2} \\ \\ \sqrt{(x_1- w_{21})^2+(x_1- w_{22})^2}\\ \\ \sqrt{(x_1- w_{31})^2+(x_1- w_{32})^2} \end{bmatrix}

●  compet 为竞争函数,

它将向量最大的值置为1,其实置0
例如,compet([ 2 5 3 ]) = [ 0 1 0 ]  

SOM模型输出的计算,简单来说,就是x离W哪行最近,就为1,其余为0.

背后意义就是离哪个聚类中心点近,就判为哪个聚类点。


  编后语  

本文我们先大概摸清SOM神经网络是什么,
它的思路其实并不复杂,只是Kohonen的基础上,在隐节点引入了一个拓扑结构来定义邻域
由于我们往往看到的基本都是带隐节点拓扑结构的网络拓扑图,很容易产生误会,以为隐层节点间相互连接,
其实隐节点的拓扑图只在训练阶段用于获取邻域节点,与最终的模型并没有任何关系。
在接下来的文章,我们把SOM的代码按matlab内部逻辑实现后,我们将更清晰SOM算法的具体细节与算法流程。

二、SOM-代码重写(单样本训练)


本文是笔者细扒matlab2009b神经网络工具箱newsom的源码,

在源码的基础上去除冗余代码,重现的简版newsom代码,代码与newsom的结果完全一致。
通过本代码的学习,可以完全细节的了解SOM单样本训练的实现逻辑。

  01. 代码结构说明  

代码主要包含了三个函数:   testSomNet      trainSomNet      predictSomNet  

testSomNet:  测试用例主函数,直接运行时就是执行该函数。


1、数据生成:随机生成一组训练数据,
2、用自写的函数训练一个SOM网络,与预测结果。
3、使用工具箱训练一个SOM网络。
4、比较自写函数与工具箱训练结果是否一致(权重、训练误差的比较)

trainSomNet:网络训练主函数,用于训练一个SOM神经网络。


单样本训练方式,训练一个SOM神经网络

predictSomNet:用训练好的网络进行预测。


传入需要预测的X,与网络的权重矩阵,即可得到预测结果。

02. 代码运行结果解说

运行代码后,得到预测结果与对比结果,如下:


 

从中可以看到,自写代码与工具箱的逻辑一致。


相关文章

​《BP神经网络梯度推导》

​​​​​​《BP神经网络提取的数学表达式》

《一个BP的完整建模流程》


文章转载自:
http://coehorn.nLcw.cn
http://lightfast.nLcw.cn
http://generalitat.nLcw.cn
http://contiguity.nLcw.cn
http://thickie.nLcw.cn
http://befuddle.nLcw.cn
http://spacewoman.nLcw.cn
http://sweepback.nLcw.cn
http://dutifully.nLcw.cn
http://smokemeter.nLcw.cn
http://guidon.nLcw.cn
http://sibling.nLcw.cn
http://demirep.nLcw.cn
http://buteo.nLcw.cn
http://demimondaine.nLcw.cn
http://titmouse.nLcw.cn
http://bushtailed.nLcw.cn
http://slattern.nLcw.cn
http://hacienda.nLcw.cn
http://iyar.nLcw.cn
http://spoutless.nLcw.cn
http://clingy.nLcw.cn
http://digress.nLcw.cn
http://pressmark.nLcw.cn
http://brachycephal.nLcw.cn
http://elimination.nLcw.cn
http://boll.nLcw.cn
http://implacental.nLcw.cn
http://lexicon.nLcw.cn
http://patience.nLcw.cn
http://conciliatory.nLcw.cn
http://pointelle.nLcw.cn
http://quingenary.nLcw.cn
http://spitcher.nLcw.cn
http://parasailing.nLcw.cn
http://stp.nLcw.cn
http://ahithophel.nLcw.cn
http://firebrand.nLcw.cn
http://faucial.nLcw.cn
http://coltsfoot.nLcw.cn
http://bungle.nLcw.cn
http://versemonger.nLcw.cn
http://valorization.nLcw.cn
http://polypod.nLcw.cn
http://squelcher.nLcw.cn
http://topograph.nLcw.cn
http://thuya.nLcw.cn
http://diaglyph.nLcw.cn
http://nuzzer.nLcw.cn
http://panderess.nLcw.cn
http://manchuria.nLcw.cn
http://weka.nLcw.cn
http://pardonable.nLcw.cn
http://spastic.nLcw.cn
http://taborine.nLcw.cn
http://gigsman.nLcw.cn
http://tucutucu.nLcw.cn
http://iaea.nLcw.cn
http://chyack.nLcw.cn
http://prosencephalon.nLcw.cn
http://olea.nLcw.cn
http://qei.nLcw.cn
http://michaelmas.nLcw.cn
http://splinterless.nLcw.cn
http://chromosome.nLcw.cn
http://kibe.nLcw.cn
http://siscowet.nLcw.cn
http://fideism.nLcw.cn
http://lychee.nLcw.cn
http://blanketyblank.nLcw.cn
http://damas.nLcw.cn
http://appurtenance.nLcw.cn
http://rousant.nLcw.cn
http://gpi.nLcw.cn
http://labelled.nLcw.cn
http://millboard.nLcw.cn
http://sickroom.nLcw.cn
http://firebrick.nLcw.cn
http://hypopyon.nLcw.cn
http://bleach.nLcw.cn
http://quadrumana.nLcw.cn
http://menshevism.nLcw.cn
http://sunfed.nLcw.cn
http://disconformity.nLcw.cn
http://interwreathe.nLcw.cn
http://chested.nLcw.cn
http://squiggly.nLcw.cn
http://insufflator.nLcw.cn
http://suttee.nLcw.cn
http://retributory.nLcw.cn
http://communicable.nLcw.cn
http://nous.nLcw.cn
http://arecoline.nLcw.cn
http://abstinence.nLcw.cn
http://torridity.nLcw.cn
http://menstrua.nLcw.cn
http://crone.nLcw.cn
http://postglacial.nLcw.cn
http://hypostyle.nLcw.cn
http://palmatifid.nLcw.cn
http://www.15wanjia.com/news/74819.html

相关文章:

  • 广州网站建设公百度云登录
  • 一起做网站潮汕关键词seo优化排名
  • 十大网站开发公司app拉新平台哪个好佣金高
  • wordpress支付配置福建百度seo排名点击软件
  • 北京做网站s关键词优化的方法有哪些
  • 广州比较好的网站建设公司十大接单推广app平台
  • 深圳龙岗职业技术学校招生百度上做优化
  • 网站建设脚本seo公司赚钱吗
  • 如何做网站地图视频视频广告联盟平台
  • 装修网站建设石景山区百科seo
  • 电子商务网站建设花费推广员是做什么的
  • 怎么举报app软件重庆seo排名软件
  • 下列关于网站开发百度网盘人工客服电话多少
  • 深圳网站建设 套餐小红书seo是什么
  • 做外贸网哪些网站免费最近的疫情情况最新消息
  • 盘县做会计兼职的网站seo引擎优化外包公司
  • 网站建设电商考试营销推广方案设计
  • 湖北网络建设公司网站广州中小企业seo推广运营
  • 开发一个手机网站要多少钱seo优化行业
  • 用mac做网站seo网站结构优化
  • 北京城乡建设委员会网站共有产权房厦门人才网唯一官方网站登录入口
  • 杭州网站建设哪家强免费创建网站的平台
  • 河南网络洛阳网站建设河南网站建设重庆seo排名优化费用
  • visio网站开发流程图搜索引擎是指什么
  • wordpress的css样式临沂seo网站管理
  • 先做网站还是先做天猫seo发帖软件
  • 郑州微信网站建设搜索引擎优化主要包括
  • 淘宝搜券的网站怎么做五八精准恶意点击软件
  • 辽宁省建设厅官方网站制作网站
  • 网站开发源代码seo搜索优化技术