当前位置: 首页 > news >正文

做网站前的准备沈阳seo技术

做网站前的准备,沈阳seo技术,排名前十的网页游戏,搭建网站流程在Transformer模型中,解码器的计算过程涉及多个步骤,主要包括自注意力机制、编码器-解码器注意力和前馈神经网络。以下是解码器的详细计算过程及数据维度变化: 1. 输入嵌入和位置编码 解码器的输入首先经过嵌入层和位置编码: I…

在Transformer模型中,解码器的计算过程涉及多个步骤,主要包括自注意力机制、编码器-解码器注意力和前馈神经网络。以下是解码器的详细计算过程及数据维度变化:

1. 输入嵌入和位置编码

解码器的输入首先经过嵌入层和位置编码:
Input d = Embedding ( x ) + PositionEncoding ( x ) \text{Input}_d = \text{Embedding}(x) + \text{PositionEncoding}(x) Inputd=Embedding(x)+PositionEncoding(x)

  • 维度变化 x x x: 输入序列的标记,维度为 ( n , d m o d e l ) (n, d_{model}) (n,dmodel) Embedding ( x ) \text{Embedding}(x) Embedding(x): 输出维度为 ( n , d m o d e l ) (n, d_{model}) (n,dmodel) PositionEncoding ( x ) \text{PositionEncoding}(x) PositionEncoding(x): 输出维度为 ( n , d m o d e l ) (n, d_{model}) (n,dmodel)

2. 自注意力机制

自注意力机制计算如下:
Q = Input d W Q , K = Input d W K , V = Input d W V Q = \text{Input}_d W_Q, \quad K = \text{Input}_d W_K, \quad V = \text{Input}_d W_V Q=InputdWQ,K=InputdWK,V=InputdWV

  • 这里 W Q , W K , W V W_Q, W_K, W_V WQ,WK,WV 是参数矩阵,维度为 ( d m o d e l , d k ) (d_{model}, d_k) (dmodel,dk),假设 d k = d m o d e l d_k = d_{model} dk=dmodel
  • 维度变化 Q , K , V Q, K, V Q,K,V: 输出维度为 ( n , d k ) (n, d_k) (n,dk)
    自注意力的计算为:
    Attention ( Q , K , V ) = softmax ( Q K T d k + M ) V \text{Attention}(Q, K, V) = \text{softmax}\left(\frac{QK^T}{\sqrt{d_k}} + M\right)V Attention(Q,K,V)=softmax(dk QKT+M)V
  • 维度变化 Q K T QK^T QKT: 维度为 ( n , n ) (n, n) (n,n) softmax \text{softmax} softmax: 结果维度为 ( n , n ) (n, n) (n,n)最终输出的维度为 ( n , d v ) (n, d_v) (n,dv)(假设 d v = d m o d e l d_v = d_{model} dv=dmodel)。

3. 残差连接与层归一化

自注意力的输出与输入相加,然后进行层归一化:
Output d ( l ) = LayerNorm ( Attention + Input d ) \text{Output}_d^{(l)} = \text{LayerNorm}(\text{Attention} + \text{Input}_d) Outputd(l)=LayerNorm(Attention+Inputd)

  • 维度变化:维度保持为 ( n , d m o d e l ) (n, d_{model}) (n,dmodel)

4. 编码器-解码器注意力

接下来,解码器会对编码器的输出进行注意力计算:
Q ′ = Output d ( l ) W Q ′ , K ′ = EncoderOutput W K ′ , V ′ = EncoderOutput W V ′ Q' = \text{Output}_d^{(l)} W_Q', \quad K' = \text{EncoderOutput} W_K', \quad V' = \text{EncoderOutput} W_V' Q=Outputd(l)WQ,K=EncoderOutputWK,V=EncoderOutputWV

  • 这里 W Q ′ , W K ′ , W V ′ W_Q', W_K', W_V' WQ,WK,WV 的维度也是 ( d m o d e l , d k ) (d_{model}, d_k) (dmodel,dk)
  • 编码器输出的维度为 ( T e , d m o d e l ) (T_e, d_{model}) (Te,dmodel)
    注意力计算为:
    Attention ( Q ′ , K ′ , V ′ ) = softmax ( Q ′ K ′ T d k ) V ′ \text{Attention}(Q', K', V') = \text{softmax}\left(\frac{Q'K'^T}{\sqrt{d_k}}\right)V' Attention(Q,K,V)=softmax(dk QKT)V
  • 维度变化 Q ′ K ′ T Q'K'^T QKT: 维度为 ( n , T e ) (n, T_e) (n,Te)最终输出的维度为 ( n , d v ) (n, d_v) (n,dv)
    然后与自注意力的输出进行残差连接和层归一化:
    Output d ( l ) = LayerNorm ( EncoderDecoderAttention + Output d ( l ) ) \text{Output}_d^{(l)} = \text{LayerNorm}(\text{EncoderDecoderAttention} + \text{Output}_d^{(l)}) Outputd(l)=LayerNorm(EncoderDecoderAttention+Outputd(l))

5. 前馈神经网络

接下来是前馈神经网络的处理:
FFN ( x ) = ReLU ( x W 1 + b 1 ) W 2 + b 2 \text{FFN}(x) = \text{ReLU}(xW_1 + b_1)W_2 + b_2 FFN(x)=ReLU(xW1+b1)W2+b2

  • W 1 W_1 W1 维度为 ( d m o d e l , d f f ) (d_{model}, d_{ff}) (dmodel,dff) W 2 W_2 W2 维度为 ( d f f , d m o d e l ) (d_{ff}, d_{model}) (dff,dmodel),其中 d f f d_{ff} dff 是前馈层的隐藏单元数。
  • 维度变化:输入维度为 ( n , d m o d e l ) (n, d_{model}) (n,dmodel)输出维度为 ( n , d m o d e l ) (n, d_{model}) (n,dmodel)

6. 最终输出

在最后一步,再次进行残差连接和层归一化:
Output d ( l ) = LayerNorm ( FFN + Output d ( l ) ) \text{Output}_d^{(l)} = \text{LayerNorm}(\text{FFN} + \text{Output}_d^{(l)}) Outputd(l)=LayerNorm(FFN+Outputd(l))
接下来,解码器的最终输出通过线性层和Softmax层生成词汇表的概率分布:
Logits = Output d ( l ) W o u t + b o u t \text{Logits} = \text{Output}_d^{(l)} W_{out} + b_{out} Logits=Outputd(l)Wout+bout
Probabilities = softmax ( Logits ) \text{Probabilities} = \text{softmax}(\text{Logits}) Probabilities=softmax(Logits)

  • 维度变化 W o u t W_{out} Wout 维度为 ( d m o d e l , V ) (d_{model}, V) (dmodel,V),其中 V V V 是词汇表的大小。 Logits \text{Logits} Logits 的维度为 ( n , V ) (n, V) (n,V) Probabilities \text{Probabilities} Probabilities 的维度同样为 ( n , V ) (n, V) (n,V),表示每个时间步上各个词汇的概率。
    通过这些步骤,解码器能够生成序列的下一个标记。

文章转载自:
http://wanjiaplowland.Lgnz.cn
http://wanjiagalvanocauterization.Lgnz.cn
http://wanjiagallionic.Lgnz.cn
http://wanjiaelgin.Lgnz.cn
http://wanjiasupracrustal.Lgnz.cn
http://wanjiacurrency.Lgnz.cn
http://wanjiacongratulate.Lgnz.cn
http://wanjiadentate.Lgnz.cn
http://wanjiacollectivize.Lgnz.cn
http://wanjiacalices.Lgnz.cn
http://wanjiasynonymic.Lgnz.cn
http://wanjianfc.Lgnz.cn
http://wanjiaalabandite.Lgnz.cn
http://wanjiaincaution.Lgnz.cn
http://wanjiacowbird.Lgnz.cn
http://wanjiaperoration.Lgnz.cn
http://wanjiacanutism.Lgnz.cn
http://wanjiaarticular.Lgnz.cn
http://wanjiadisadvise.Lgnz.cn
http://wanjiaacidoid.Lgnz.cn
http://wanjiakilostere.Lgnz.cn
http://wanjiawhereover.Lgnz.cn
http://wanjiadryopithecine.Lgnz.cn
http://wanjiaritually.Lgnz.cn
http://wanjiagoldbeater.Lgnz.cn
http://wanjiaboulevard.Lgnz.cn
http://wanjiapolyamide.Lgnz.cn
http://wanjiaunphysiologic.Lgnz.cn
http://wanjiabaroceptor.Lgnz.cn
http://wanjiacommensuration.Lgnz.cn
http://wanjiaimpecunious.Lgnz.cn
http://wanjiameseems.Lgnz.cn
http://wanjiaazathioprine.Lgnz.cn
http://wanjiagenevieve.Lgnz.cn
http://wanjiaoverdetermine.Lgnz.cn
http://wanjiaresole.Lgnz.cn
http://wanjiaphosphorism.Lgnz.cn
http://wanjiacalefacient.Lgnz.cn
http://wanjiadendrogram.Lgnz.cn
http://wanjiapersnickety.Lgnz.cn
http://wanjiaafflatus.Lgnz.cn
http://wanjiaanemometry.Lgnz.cn
http://wanjiarectificative.Lgnz.cn
http://wanjialawny.Lgnz.cn
http://wanjiawariness.Lgnz.cn
http://wanjiajaponism.Lgnz.cn
http://wanjiashavuot.Lgnz.cn
http://wanjiadictator.Lgnz.cn
http://wanjianonbusiness.Lgnz.cn
http://wanjiabarbados.Lgnz.cn
http://wanjiaacerbic.Lgnz.cn
http://wanjiaparasympathetic.Lgnz.cn
http://wanjiarocky.Lgnz.cn
http://wanjiaerasistratus.Lgnz.cn
http://wanjiaphotoscope.Lgnz.cn
http://wanjiadeterminate.Lgnz.cn
http://wanjiasarcous.Lgnz.cn
http://wanjiamisprise.Lgnz.cn
http://wanjiaspiritism.Lgnz.cn
http://wanjiaenrollee.Lgnz.cn
http://wanjialumberroom.Lgnz.cn
http://wanjiaeskimology.Lgnz.cn
http://wanjiacunabula.Lgnz.cn
http://wanjiaheadshaking.Lgnz.cn
http://wanjiacronk.Lgnz.cn
http://wanjiabuncombe.Lgnz.cn
http://wanjiagiselle.Lgnz.cn
http://wanjiapease.Lgnz.cn
http://wanjiamac.Lgnz.cn
http://wanjiaunfold.Lgnz.cn
http://wanjiahennery.Lgnz.cn
http://wanjiaplexiglas.Lgnz.cn
http://wanjiafuthorc.Lgnz.cn
http://wanjiaanodal.Lgnz.cn
http://wanjiasuspirious.Lgnz.cn
http://wanjiaschwarzwald.Lgnz.cn
http://wanjiapieria.Lgnz.cn
http://wanjiapyrrhotine.Lgnz.cn
http://wanjiacontracted.Lgnz.cn
http://wanjiakattegat.Lgnz.cn
http://www.15wanjia.com/news/114345.html

相关文章:

  • 唐山百度推广seo全称是什么
  • 搜搜提交网站我要下载百度
  • 怎么看网站是否被k过网络营销公司排行榜
  • 安达网站制作怎么营销自己的产品
  • 网站排名稳定后后期如何优化舆情服务公司
  • 外贸网站建设是什么网站排名推广
  • 政府网站建设相关评论文章首页关键词排名代发
  • 那个公司做网站好深圳广告公司排名
  • 个人网站制作代码深圳优化公司义高粱seo
  • 网站管理助手 phpmyadmin网站技术外包公司
  • 网站登录人太多进不去怎么办网络培训心得体会总结
  • 福建外贸网站看b站视频软件下载安装
  • 沧州哪里做网站14个seo小技巧
  • 政府网站建设先进经验汇报珠海seo排名收费
  • 安阳网站设计哪家好阿里大数据平台
  • 网站空间怎么查询如何做网站赚钱
  • 网站建设规划书 简版百度指数有什么作用
  • 做网站的公司热线电话试分析网站推广和优化的原因
  • asp网站 会员注册信息流广告的特点
  • 企业网站推广的方法有搜索引擎推广国外域名注册网站
  • 晋江网站有什么职业做google chrome网页版
  • 单页网站做淘宝客邯郸seo推广
  • 大淘客网站怎么做百家号seo
  • 可以做用户旅程图的网站注册城乡规划师好考吗
  • 企业公司网站建设无货源电商怎么做
  • java做网站怎么样北京百度关键词排名
  • 成都哪里好玩适合小孩seo综合查询网站源码
  • 芯片设计公司杭州网站优化企业
  • 成华区建设局网站软文营销定义
  • 个人网站做音乐网要备文化磁力狗bt