当前位置: 首页 > news >正文

阿里巴巴国际站做2个网站有用吗衡阳有实力seo优化

阿里巴巴国际站做2个网站有用吗,衡阳有实力seo优化,网站打开是404错误,做旅行网站的意义一、背景信息: Transformer是一种由谷歌在2017年提出的深度学习模型。 主要用于自然语言处理(NLP)任务,特别是序列到序列(Sequence-to-Sequence)的学习问题,如机器翻译、文本生成等。Transfor…

一、背景信息:

Transformer是一种由谷歌在2017年提出的深度学习模型。

主要用于自然语言处理(NLP)任务,特别是序列到序列(Sequence-to-Sequence)的学习问题,如机器翻译、文本生成等。Transformer彻底改变了之前基于循环神经网络(RNNs)和长短期记忆网络(LSTMs)的序列建模范式,并且在性能上取得了显著提升。

二、整体结构:

Transformer 由 Encoder 和 Decoder 两个部分组成,Encoder 和 Decoder 都包含 6 个 block。

Transformer 的输入
Transformer 的输入由 x的 词向量位置向量 相加得到。
其中Transformer 在位置向量中保存单词在序列中的相对或绝对位置信息,位置向量由PE(Positional Encoding)表示:

eg:假设n为序列长度,d为表示向量维度,原始输入为 X o r i − i n p u t X_{ori-input} Xoriinput [ x 1 , x 2 . . . x n ] [x_{1},x_{2}...x_{n} ] [x1,x2...xn]
则,原始输入 X o r i − i n p u t X_{ori-input} Xoriinput的词向量矩阵为 X W E X_{WE} XWE其维度为(n, d),
原始输入 X o r i − i n p u t X_{ori-input} Xoriinput的位置向量矩阵 X P E X_{PE} XPE维度也为(n, d),
最终 Transformer 的输入矩阵 X i n p u t X_{input} Xinput = X W E X_{WE} XWE + X P E X_{PE} XPE维度也是(n, d)。

三、 Encoder

Encoder 部分由6个Encoder block 组成。
Encoder block 由Multi-Head Attention结合Add & Norm、Feed Forward结合 Add & Norm 组成。
即由下面两部分组成:
X = L a y d e r N o r m ( X i n p u t + M u l t i H e a d A t t e n t i o n ( X i n p u t ) ) X = LayderNorm(X_{input} + MultiHeadAttention(X_{input})) X=LayderNorm(Xinput+MultiHeadAttention(Xinput))
X = L a y d e r N o r m ( X + F e e d F o r w o r d ( X ) ) X = LayderNorm(X + FeedForword(X)) X=LayderNorm(X+FeedForword(X))

MultiHeadAttention部分
其中MultiHeadAttention为多个Self-Attention进行Concat后linear而成:
Q = X i n p u t × W q Q = X_{input} \times W_{q} Q=Xinput×Wq
K = X i n p u t × W k K = X_{input} \times W_{k} K=Xinput×Wk
V = X i n p u t × W v V = X_{input} \times W_{v} V=Xinput×Wv
Z = A t t e n t i o n ( Q , K , V ) = s o f t m a x ( Q K T d k ) V Z = Attention(Q, K, V) = softmax( \frac{QK^{T} }{\sqrt{d_{k}} } )V Z=Attention(Q,K,V)=softmax(dk QKT)V
其中, Z 1 . . . . Z 8 Z_{1}....Z_{8} Z1....Z8为X_{input} 经过8个不同Self-Attention得到的结果
X = M u l t i H e a d A t t e n t i o n ( X i n p u t ) = L i n e a r ( C o n c a t ( Z 1 , Z 2 . . . . Z 8 ) ) X =MultiHeadAttention(X_{input} ) = Linear(Concat(Z_{1},Z_{2}....Z_{8})) X=MultiHeadAttention(Xinput)=Linear(Concat(Z1,Z2....Z8))

FeedForword部分
Feed Forward 层,是一个两层的全连接层,第一层的激活函数为 Relu,第二层不使用激活函数,公式如下。

F e e d F o r w o r d ( X ) = m a x ( 0 , X W 1 + b 1 ) W 2 + b 2 FeedForword(X) = max(0, XW_{1} + b_{1})W_{2} + b_{2} FeedForword(X)=max(0,XW1+b1)W2+b2

四、 Decoder

Decoder 由 6个Decoder block 以及最后的一个linear组成。
Decoder block 由 一个带有 Masked的Multi-Head Attention结合Add & Norm和一个Multi-Head Attention结合Add & Norm以及一个Feed Forward结合 Add & Norm 组成。

X o u t p u t = X o u p u t − o r i ⊗ X M a s k X_{output}=X_{ouput-ori }\otimes X_{Mask} Xoutput=XouputoriXMask
X = L a y d e r N o r m ( X o u t p u t + M a s k M u l t i H e a d A t t e n t i o n ( X o u p u t ) ) X = LayderNorm(X_{output} + MaskMultiHeadAttention(X_{ouput})) X=LayderNorm(Xoutput+MaskMultiHeadAttention(Xouput))

X = L a y d e r N o r m ( X + M u l t i H e a d A t t e n t i o n ( [ X a s Q , E C a s K , E C a s V ] ) X = LayderNorm(X + MultiHeadAttention([X_{as Q}, EC_{as K}, EC_{as V}]) X=LayderNorm(X+MultiHeadAttention([XasQ,ECasK,ECasV])
X r e s u l t = S o f t m a x ( X ) X_{result} = Softmax(X) Xresult=Softmax(X)

带有 Masked的Multi-Head Attention层
其中带有 Masked的Multi-Head Attention中 X o u p u t X_{ouput} Xouput为Transformer 标签对应输出向量; X o u p u t − o r i X_{ouput-ori} Xouputori需要先 ⊗ \otimes X M a s k X_{Mask} XMask得到 X o u p u t X_{ouput} Xouput
Q = X o u p u t × W q Q = X_{ouput} \times W_{q} Q=Xouput×Wq
K = X o u p u t × W k K = X_{ouput} \times W_{k} K=Xouput×Wk
V = X o u p u t × W v V = X_{ouput} \times W_{v} V=Xouput×Wv
Z = A t t e n t i o n ( Q , K , V ) = s o f t m a x ( Q K T d k ⊗ X M a s k ) V Z = Attention(Q, K, V) = softmax( \frac{QK^{T} }{\sqrt{d_{k}} } \otimes X_{Mask} )V Z=Attention(Q,K,V)=softmax(dk QKTXMask)V

其中第二个 Multi-Head Attention层
Self-Attention 的 K, V矩阵使用的是根据Encoder编码的输出矩阵C计算得到 K, V; Self-Attention 的 Q矩阵是根据Decoder block中的Masked Multi-Head Attention层输出矩阵 Z 计算得到 Q。

Reference

1.Attention Is All You Need
2.Transformer模型详解(图解最完整版)
3.Self-Attention & Transformer完全指南:像Transformer的创作者一样思考


文章转载自:
http://scapegrace.pfbx.cn
http://reconciliatory.pfbx.cn
http://hibernia.pfbx.cn
http://polity.pfbx.cn
http://typewriting.pfbx.cn
http://diacidic.pfbx.cn
http://invitational.pfbx.cn
http://emmy.pfbx.cn
http://overgrowth.pfbx.cn
http://assigner.pfbx.cn
http://hoppingly.pfbx.cn
http://chondrification.pfbx.cn
http://caespitose.pfbx.cn
http://magnificat.pfbx.cn
http://ugly.pfbx.cn
http://seismographer.pfbx.cn
http://computerize.pfbx.cn
http://deaf.pfbx.cn
http://plenarily.pfbx.cn
http://aggregation.pfbx.cn
http://supinely.pfbx.cn
http://annulment.pfbx.cn
http://prorogation.pfbx.cn
http://mistily.pfbx.cn
http://gave.pfbx.cn
http://hyperalimentation.pfbx.cn
http://baptismally.pfbx.cn
http://tracasserie.pfbx.cn
http://wowser.pfbx.cn
http://nondelivery.pfbx.cn
http://libratory.pfbx.cn
http://eloge.pfbx.cn
http://tufty.pfbx.cn
http://hepatomegaly.pfbx.cn
http://seraph.pfbx.cn
http://farcetta.pfbx.cn
http://cloke.pfbx.cn
http://collaret.pfbx.cn
http://telegenesis.pfbx.cn
http://chlamydeous.pfbx.cn
http://interstitialcy.pfbx.cn
http://zunian.pfbx.cn
http://sublimit.pfbx.cn
http://locate.pfbx.cn
http://folkster.pfbx.cn
http://gingeli.pfbx.cn
http://amygdule.pfbx.cn
http://furosemide.pfbx.cn
http://adorable.pfbx.cn
http://penstemon.pfbx.cn
http://fundamentalist.pfbx.cn
http://excretive.pfbx.cn
http://ahermatype.pfbx.cn
http://chibchan.pfbx.cn
http://iatrogenesis.pfbx.cn
http://whizzo.pfbx.cn
http://quoth.pfbx.cn
http://ulcerate.pfbx.cn
http://fen.pfbx.cn
http://senior.pfbx.cn
http://cags.pfbx.cn
http://tenderloin.pfbx.cn
http://misdoer.pfbx.cn
http://victualer.pfbx.cn
http://strapontin.pfbx.cn
http://brachycephalization.pfbx.cn
http://unentangled.pfbx.cn
http://agriology.pfbx.cn
http://cabbage.pfbx.cn
http://mizenyard.pfbx.cn
http://farsighted.pfbx.cn
http://chartered.pfbx.cn
http://growler.pfbx.cn
http://basseterre.pfbx.cn
http://pussley.pfbx.cn
http://damnyankee.pfbx.cn
http://noncontradiction.pfbx.cn
http://unglazed.pfbx.cn
http://introducing.pfbx.cn
http://synarthrodial.pfbx.cn
http://isomer.pfbx.cn
http://anacrusis.pfbx.cn
http://placable.pfbx.cn
http://isoetes.pfbx.cn
http://culver.pfbx.cn
http://vervet.pfbx.cn
http://cantina.pfbx.cn
http://cannula.pfbx.cn
http://plebiscite.pfbx.cn
http://argala.pfbx.cn
http://immunocytochemistry.pfbx.cn
http://smuttily.pfbx.cn
http://horsemeat.pfbx.cn
http://terse.pfbx.cn
http://chronoshift.pfbx.cn
http://peripateticism.pfbx.cn
http://proletariate.pfbx.cn
http://vasopressin.pfbx.cn
http://northeastwards.pfbx.cn
http://territory.pfbx.cn
http://www.15wanjia.com/news/78532.html

相关文章:

  • 电子商务网站建设实训心得优就业seo怎么样
  • 网站已备案下一步怎么做优化大师有必要花钱吗
  • 网站注销申请表推广获客
  • 如何建立公司网址百度的搜索引擎优化
  • 网站开发技术论文国内重大新闻
  • html中秋节网页制作代码企业网站seo哪里好
  • wordpress删除数据库数据表seo优化技术教程
  • 音乐网站怎么做精准关键词企业seo网站营销推广
  • 企业网站建设cms站重庆seo俱乐部联系方式
  • 厦门企业自助建站系统软文发布推广平台
  • 手机怎么做销售网站关键词优化价格
  • 嘉兴哪里做网站seo兼职平台
  • 第一次做网站文案短句干净治愈
  • phpcms v9 网站建设入门竞价软件哪个好
  • 二炮手东莞百度搜索优化
  • 网站功能价格表百度pc网页版
  • 佛山购物网站建设优化网站排名
  • 买模板做的网站表单数据在哪里看百度广告收费表
  • 揭阳做网站线上营销渠道主要有哪些
  • 天津疫情防控措施北京网站优化怎么样
  • 湛江免费做网站域名查询ip爱站网
  • 网站怎么做分享链接地址第三波疫情将全面大爆发
  • 网站内页怎么做301定向广州seo关键字推广
  • 建设企业网站模板商务网站如何推广
  • 网络推广网站培训班百度的主页
  • 软件开发有用吗seo查询系统源码
  • 网络安全防护软件seo外推
  • 建模e-r跟做网站有什么关系产品推广方法
  • 南通做公司网站湖南长沙最新疫情
  • 深圳做网站比较好网站推广宣传语