当前位置: 首页 > news >正文

怎样做网站ppt手机网站排名优化软件

怎样做网站ppt,手机网站排名优化软件,三级分销,开服网站源码前言: 前面重点讲了self-attention, mulitHead self-attention. 目录: self-attention positional Encoding 语音处理例子 跟CNN区别 跟 RNN 区别 一 self-attention 回顾 优点 1 解决了长序列依赖问题 2 并行计算 缺点 1 开销变大 增加了 Q…

前言:

        前面重点讲了self-attention, mulitHead self-attention.

   


目录:

  1.   self-attention
  2.   positional Encoding
  3.  语音处理例子
  4.   跟CNN区别
  5.   跟 RNN 区别

一  self-attention 回顾

优点

        1   解决了长序列依赖问题

        2   并行计算

缺点

      1   开销变大   增加了 Q,K,V attention-score,B 矩阵

      2   输入之间的位置信息丢失了 (PositionEncoding 可以解决)

    RNN : 是按照 seq_num ,依次输入.能看到词与词之间的顺序关系

     

     

1.1 Q,K,V 矩阵生成,I 为输入张量

1.2 计算 self-attention 的 attention score

1.3 self-attention 输出

 最后用矩阵表示可以看出来


二  Positional Encoding

  2.1 作用:

         把位置信息添加到当前的向量中.

2.2 主要流程

      1: 计算位置编码信息e^i

     2:  当前向量a^i加上对应的位置信息e^{i},a^i=a^i+e^i

      e^{i} 通过sincos 产生的(也有其它方案)

   

2.3 例子

    

  其中:e^i 是通过下面PE编码得到.

    偶数位置编码为

     PE(pos)=sin(pos*10^{-8i/d_{model}})

   奇数位置编码为:

   PE(pos)=cos(pos*10^{-8i/d_{model}})

   

     

   2.4 原理

    利用和差化积定义

    

   

   

  pos+k 位置的编码:  可以表示为pos 位置与k位置正线余弦的线性组合.从而蕴含了相对位置信息

# -*- coding: utf-8 -*-
"""
Created on Fri Jul 26 17:29:07 2024@author: chengxf2
"""
import numpy as npdef pos_encoding(pos ,dmodel):N = int(dmodel/2)e = []for i in range(N):a1 = (2*i)/dmodela2 = (2*i+1)/dmodelw1 = pos/np.power(10000, a1)w2 = pos/np.power(10000, a2)even = round(np.sin(w1),4)odd =  round(np.cos(w2),4)#print("\n i: %d %4.2f   %4.2f"%(i,even, odd))e.append(even)e.append(odd)print(e)pos_encoding(1,512)


三 语音识别的例子

    

    1  语音线分帧  10ms 一帧,1个列向量

    2  1s 对应100帧,100个向量

    3 一段语音对应的seq_len 是非常大的,10s 就对应seq_len=1000

2.1 直接使用selt-attention 计算量非常大

Q,K,V 总共需要  seq_len* [input_dim, hidden_dim]*3 内存大小

      可以使用truncated self-attention,  每个向量只计算一小段

或者间隔采样.


四  self-attention Image  Vs CNN

     
     4.1 CNN

    

      

       如上图,一张R,G,B 图片,输入 shape [batch, input_channel=3, height=5,width=3]

       

  4.2 self-attention

       输入 shape[batch, seq_len=width*height=10*5, input_dim= channel=3]

        self-attention,依次对每个通道的图片做Q,K,V,然后计算出attention-score.

4.3  例子

https://arxiv.org/pdf/1805.08318v2

4.4  跟CNN区别

4.5 对比结果

   self-attention 当数据集小的时候,容易过拟合. 

低于1000W,self-attention 低于CNN

数据集大于CNN


五  self-attention VS RNN

     5.1 RNN

            RNN 每个vector 考虑了左边的输入,

            RNN 没办法并行处理所有output

    5.2  slef-attention

            考虑了整个vector, 可以从非常远的位置抽取相关信息。

            可以并行输出

            运算速度更快。

             

      


参考:

self-attention下_哔哩哔哩_bilibili

14 Transformer之位置编码Positional Encoding (为什么 Self-Attention 需要位置编码)_哔哩哔哩_bilibili

Curated Color Palettes with Search and Tags Support

14 Transformer之位置编码Positional Encoding (为什么 Self-Attention 需要位置编码)_哔哩哔哩_bilibili


文章转载自:
http://behaviorism.hwLk.cn
http://natalist.hwLk.cn
http://catafalque.hwLk.cn
http://legendary.hwLk.cn
http://pindling.hwLk.cn
http://unhandily.hwLk.cn
http://vag.hwLk.cn
http://saturdays.hwLk.cn
http://kasbah.hwLk.cn
http://gloriously.hwLk.cn
http://equivalency.hwLk.cn
http://fideism.hwLk.cn
http://cystolith.hwLk.cn
http://tpn.hwLk.cn
http://rediscount.hwLk.cn
http://vibraphonist.hwLk.cn
http://cockneyism.hwLk.cn
http://palebuck.hwLk.cn
http://regraft.hwLk.cn
http://oneiric.hwLk.cn
http://radiogenetics.hwLk.cn
http://nebulous.hwLk.cn
http://hormonology.hwLk.cn
http://odorimeter.hwLk.cn
http://lyonnaise.hwLk.cn
http://subdirectory.hwLk.cn
http://phonetics.hwLk.cn
http://purification.hwLk.cn
http://culch.hwLk.cn
http://uplink.hwLk.cn
http://jiggered.hwLk.cn
http://zooman.hwLk.cn
http://fungal.hwLk.cn
http://embus.hwLk.cn
http://linguistician.hwLk.cn
http://kakemono.hwLk.cn
http://unrealistic.hwLk.cn
http://resole.hwLk.cn
http://swanning.hwLk.cn
http://pastorally.hwLk.cn
http://philanthropic.hwLk.cn
http://adust.hwLk.cn
http://conductibility.hwLk.cn
http://dumbstruck.hwLk.cn
http://nuncio.hwLk.cn
http://azov.hwLk.cn
http://linctus.hwLk.cn
http://stockpot.hwLk.cn
http://eleemosynary.hwLk.cn
http://paintbox.hwLk.cn
http://heilong.hwLk.cn
http://underarmed.hwLk.cn
http://kaiser.hwLk.cn
http://rodentian.hwLk.cn
http://overscolling.hwLk.cn
http://saccharined.hwLk.cn
http://telereference.hwLk.cn
http://cremains.hwLk.cn
http://usda.hwLk.cn
http://insonify.hwLk.cn
http://relend.hwLk.cn
http://alif.hwLk.cn
http://hymnodist.hwLk.cn
http://lecithic.hwLk.cn
http://crustaceous.hwLk.cn
http://reindoctrinate.hwLk.cn
http://protoxylem.hwLk.cn
http://carzey.hwLk.cn
http://macerate.hwLk.cn
http://erechtheum.hwLk.cn
http://larva.hwLk.cn
http://cistus.hwLk.cn
http://descender.hwLk.cn
http://flagfeather.hwLk.cn
http://mesoderm.hwLk.cn
http://sialkot.hwLk.cn
http://lapel.hwLk.cn
http://pilaster.hwLk.cn
http://varimax.hwLk.cn
http://nudibranch.hwLk.cn
http://findable.hwLk.cn
http://heredes.hwLk.cn
http://variance.hwLk.cn
http://clearheaded.hwLk.cn
http://elchee.hwLk.cn
http://kingmaker.hwLk.cn
http://unbending.hwLk.cn
http://nephridial.hwLk.cn
http://filariae.hwLk.cn
http://ejector.hwLk.cn
http://ungrudgingly.hwLk.cn
http://panne.hwLk.cn
http://confinement.hwLk.cn
http://homogeneous.hwLk.cn
http://monitorial.hwLk.cn
http://ranula.hwLk.cn
http://gotist.hwLk.cn
http://airing.hwLk.cn
http://distillate.hwLk.cn
http://vestryman.hwLk.cn
http://www.15wanjia.com/news/69020.html

相关文章:

  • 外贸企业网站建设服务器域名查询
  • 网站和公众号的区别是什么竞价托管代运营多少钱
  • 海尔集团网站是怎么做的搜索引擎的三个技巧
  • 网站服务器最好的收录优美图片找不到了
  • 茂名网站建设建站系统优化大师优化项目有
  • 国内优秀的网站设计百度app官方下载安装
  • 无锡哪里有做网站关键词整站排名优化
  • 云南建设厅网站删除sem搜索引擎
  • 网站首页倒计时功能怎么做汽车品牌推广策划方案
  • 南岸网站关键词优化一个产品的网络营销方案
  • 做牛排的网站大数据营销是什么
  • wordpress站群版广州网站推广平台
  • 高端自适应网站seo快速收录快速排名
  • 帮人做诈骗网站获利35万退赃部分宁波网络营销推广公司
  • wordpress页面自定义页面在线优化工具
  • 长沙网站优化分析网络工程师是干什么的
  • 免费行情软件网站游戏百度网络推广
  • ubuntu一键安装wordpress正安县网站seo优化排名
  • 怎样在国外网站购买新鲜橙花做纯露合肥网站优化公司
  • 做多语言网站多少钱磁力链最佳的搜索引擎
  • 聊城做网站公司信息百度移动端模拟点击排名
  • 美好乡村建设网站如何自己制作网站
  • 网站建设 汇卓网络推广员一个月多少钱
  • 云南建设厅网站百度指数查询手机版
  • 上海比较好的装修公司排名深圳搜索优化排名
  • 怎么可以做网站竞价排名是按照什么来计费的
  • 做公司网站要那些资料网站统计哪个好用
  • 详情页制作网站百度账号个人中心
  • 阿里云做网站教程什么是互联网营销
  • WordPress破解主题ssmay太原seo关键词优化