当前位置: 首页 > news >正文

天猫店买卖网站营销网络遍布全国

天猫店买卖网站,营销网络遍布全国,注册免费网站,网站建设和网袷宣传Transformer(Attention Is All You Need) Attention Is All You Need 参考#xff1a;跟李沐学AI-Transformer论文逐段精读【论文精读】 摘要#xff08;Abstract#xff09; 首先摘要说明#xff1a;目前#xff0c;主流的序列转录#xff08;序列转录#xff1a;给…Transformer(Attention Is All You Need) Attention Is All You Need 参考跟李沐学AI-Transformer论文逐段精读【论文精读】 摘要Abstract 首先摘要说明目前主流的序列转录序列转录给一个序列转录为另外一个新的序列模型都是基于RNN和CNN且一般都是一个encoder和decoder的架构。在这些encoder和decoder中通常会使用注意力机制。然后作者接着说这篇文章提出了一个简单的只使用了注意力机制的模型架构-Transformer而没有使用RNN或CNN等卷积操作。接着作者将该架构在两个机器翻译任务上进行实验可以实现更好的性能和更少的训练时间。 导言Introduction 首先作者介绍了RNN、GRN等主流的sequence models然后作者指出这里面有两个比较主流的模型一个叫做语言模型海有一个是当输出结构化信息比较多的时候的encoder和decoder架构的模型。 然后作者讲了RNN的特点和缺点在RNN中给一个序列其做法是对序列从左往右一步一步往前做的。当前第t个词的状态 h t h_t ht​是由前一个词的状态 h t − 1 h_{t-1} ht−1​和当前词本身决定的。这样的话RNN就可以把前边学到的历史信息通过 h t − 1 h_{t-1} ht−1​放到当下然后和当前词做一些计算然后输出。RNN存在的问题比较难以并行。 在第三段作者指出Attention机制已经在RNN中使用主要是用在解决如何将encoder的信息传递给decoder中。 在导言的最后一段中作者指出本篇文章提出了一个叫做Transformer的模型不再使用之前的RNN layers而是纯注意力机制。 相关工作Background 首先作者指出如何使用卷积神经网络来替换掉RNN layers来减少时序计算。同时又指出使用CNN无法对比较长的序列进行建模。但是如果使用Transformer的话每次都能看到所有的像素。但是CNN比较好的地方是可以做多个输出的channels一个channel可以认为CNN去识别不一样的模式。为了实现和CNN一样的能够输出多个channel的功能文中提出了一个叫做Multi-Head Attention机制多头注意力机制。 接下来作者提出了Self-Attention自注意力机制。然后最后作者指出Transformer是第一个只依赖于自注意力机制的encoder和decoder架构模型。 模型架构Model Architecture 首先作者说明大多数的序列转录模型中都具有encoder和decoder架构。然后解释encoder是将一个序列表示为中间的向量表示形式然后decoder是将中间的向量表示形式表示为最后的输出。这里的输入和输出不一定具有同样的长度例如英文转为中文的话长度不一定是一样的。但是需要注意的是在decoder解码的时候结果输出是一个一个生成的文中指出这种解码机制叫做自回归auto-regressive模型在这个模型中输入又是输出即过去时刻的输出又是当前时刻的输入。 Transformer模型架构是将self-attention、point-wise和FCN全连接层堆叠在一起的。整个Transformer模型架构如下图所示。 上图中左边部分为Transformer的encoder架构右边部分为decoder架构。其中encoder的输入是序列可以是图片序列、语句序列等decoder的输入是上一个decoder的输出。 编码器encoder 首先作者介绍了encoder使用6个完全一样的上图中的encoder组成。作者将6个encoder中的每一个叫做layer其中每个layer中有两个sub layer。第一个sub layer叫做“Multi-Head self-attention”机制第二个sub layer叫做point wise FFN其实就是一个MLP前向传播网络。对每个子层使用一个残差连接。最后使用一个layer normalization层级正则化。其中 L a y e r N o r m ( x S u b l a y e r ( x ) ) LayerNorm(xSublayer(x)) LayerNorm(xSublayer(x))表示针对每个encoder层来说输入x首先经过sublayer层然后和x进行相加之后再通过一个Norm层。文中说将每个encoder层的输出向量维度设置为512。这里和CNN不一样在基于CNN架构的模型中对向量的维度是长度方向上减少而channel方向上增加这里只是使用一个固定维度为512的向量所以Transformer相对来说架构比较简单 解释LayerNorm以及为什么在Transformer的架构中不使用BatchNorm 上图中解释了为什么Transformer中不使用Batch Norm而是使用Layer Norm。 解码器decoder Transformer中decoder和encoder的架构很相似数量也是N6个进行堆叠。不一样的地方在于decoder中加入了第三个sub layer这个第三子层同样是一个多头注意力机制其作用为防止decoder在做预测的时候不能看到当前t时刻之后的输入因为Transformer中使用了注意力机制同一时刻理论上所有的输入都是可以看到的但是这样在解码的时候不合理所以使用了这个Masked Multi-Head Attention Encoder即使用一个掩码机制来限制decoder去接受当前时刻t之后的输入从而保证训练和预测的时候行为是一致的。 注意力Attention 首先作者介绍了Attention Function的含义attention function是一个将一个query和一系列key-value对映射为输出output的函数。这里的query、keys、values、output都是一些向量。output是values的加权和所以output的维度和values的维度是一样的。对于每个value对应的权重是该value对应的key与query计算相似度之后得到的。这里计算相似度的函数不一样就会导致不一样的注意力机制 Scaled Dot-Product Attention 文中提出的注意力机制中query和key是等长的都等于 d k d_k dk​values为 d v d_v dv​。作者指出将query和key做点积结果作为相似度如果两个等长向量的内积越大即余弦值越大那么两个向量的相似度越大。将得到的结果除以 d k \sqrt{d_k} dk​ ​即向量的长度。query会和每一个key做内积然后将得到的结果输入到softmax当中得到N个非负的且加起来和等于1的权重。然后将这些权重作用在N个key对应的N个value上面这样就得到了最后的输出。 实际运算过程中对上述相似度计算过程的处理 query可以写成一个矩阵 Q Q Q因为不止一个query且需要注意的是上图中展示的Q多个query组合得到的矩阵中的query数量可以和key的数量不一致但是每个query与key的长度一定是一致的这样才能做内积。上图中的两个矩阵相乘之后就可以得到一个 N × M N\times M N×M的矩阵。然后将该矩阵除以 d k \sqrt{d_k} dk​ ​之后对结果的每一行做softmax即可行与行之间是独立的。然后将结果乘以values即可。最后就可以得到 N × d v N\times d_v N×dv​的矩阵。 然后作者指出了上述提出的注意力机制和传统的注意力机制的区别。一般来说有两种注意力机制加型注意力可以处理query和key不等长的情况。另外一个叫做点积的注意力机制。本文提出的注意力机制基本上和点积注意力机制一样只是本文的注意力机制中除了 d k \sqrt{d_k} dk​ ​。 为什么本文提出的注意力机制需要除以一个 d k \sqrt{d_k} dk​ ​ 作者解释当 d k d_k dk​不是那么大的时候其实除与不除基本没有区别。但是对于较长的key和query来说两者点积之后得到的矩阵在通过softmax之后会更加向1和0两端靠拢。这样的话最后计算梯度的时候梯度会比较小那么在训练的时候就会出现模型跑不动训练不起来情况。 上图左子图中包含Masked Attention具体来说假设query和key是等长的那么对t时刻query与key计算时应该只看 k 1 − k t − 1 k_1-k_{t-1} k1​−kt−1​时刻而不能看 k t k_t kt​及其之后的时刻。因为 k t k_t kt​在t时刻还没有计算出来但是对于注意力机制来说实际上query可以看到所有key中内容且query会与key中左右内容进行计算计算是可以算的但是在计算最后注意力机制输出的时候不要使用t时刻以及t时刻之后的key的内容即可实际操作的时候mask中将t以及t时刻之后的query与key计算的值换成非常大的负数那么在通过softmax的时候这些非常大的负数对应的权重就是0。 Multi-Head Attention机制 作者在文中说通过将query/key/value投影到一个低维的向量中投影h次然后再做h次的注意力函数然后将每个函数的输出并到一起然后再投影得到最终的输出。为什么使用多头注意力机制是因为本文提出的注意力机制实际上是没有可学习的参数那么上图中的多头注意力机制中对于query/key/value输入首先通过的Linear线性层中的w和b是可以学习的。也就是说给h次机会希望这个多头注意力机制能够学习到不同的投影方法使得在投影后的那个空间可以匹配得到不同模式需要的相似函数。这个多头注意力机制与CNN中的多个输出通道有一种相似的感觉 在实际操作中作者指出由于注意力机制中残差连接的存在输入和输出维度本来就是一样的那么这个时候使用h个多头注意力机制对应到每个注意力机制的输出就是原始的单注意力机制/h这里原始的输入输出维度为512h8那么多头注意力机制中每个头的输入输出维度为512/864 在Transformer架构中使用注意力机制 上图左子图为encdoer其中首先将input输入复制三份分别作为Multi-Head Attention中的key/value/query这就叫做自注意力机制。右子图中为decoder其中首先为一个Masked Multi-Head Attention机制前边已经解释过然后是一个和encoder一样的Multi-Head Attention该注意力层中key/value来自于encoder而query来自于decoder的第一个Masked Multi-Head Attention。 Point wise Feed Forward Networks 其实就是一个全连接前向传播网络就是一个MLP多层感知机。但是作者指出和传统的FFN不一样的地方在于其将序列中的每个点可以理解为加入输入是一段英文序列那么一个点就表示一个单词做一次FFN即对每个词作用同样的一个MLP共享权重。其中x表示一个512的向量。其中的 W 1 W_1 W1​会将512投影成2048维的向量。然后 W 2 W_2 W2​会把2048维的向量又投影回512。 扩展Transformer与CNN的区别 上图中左边为Transformer的注意力机制右边为RNN循环神经网络。其中RNN为了得到历史信息其需要在t时刻使用t-1时刻的信息接入这种就会造成一个问题当前t时刻的信息会越来越大。而对于Transformer来说其做到与RNN相同的获得历史全局信息的过程是使用多个注意力头。 embedding and softmax层 Transformer的输入是多个词源token那么在处理的时候需要将每个token映射为一个向量那么embedding就是针对任何一个token学习一个长为d的向量来表示。编码器和解码器都有一个embedding过程。最后在softmax之前的Linear线性层也需要一个embedding这三个embedding层是同样的权重这样训练起来会简单一些。还有一点作者在文中说到将权重乘了 d m o d e l \sqrt{d_{model}} dmodel​ ​原始论文中 d m o d e l d_{model} dmodel​就是512。因为对于embedding层来说当学习的向量维度变大之后那么权重值就会变小乘以 d m o d e l d_{model} dmodel​之后再将embedding之后的token对应的向量与下边的positional encoding层进行相加会使得两个向量在一个大概相同的scale进行。 positional encoding层 有这个层的原因是attention层是不会有时序信息的。具体的公式如下 上式中positional encoding是使用周期不一样的sin和cos计算出来的。 为什么使用自注意力机制 上表中比较了四种不同类型的层的计算复杂度、顺序计算复杂度就是说下一步计算需要等前边n步计算完成才能进行计算、最大路径长度一个信息从一个点走到另一个点需要走多远。从表中可以看出当序列的长度和整个模型宽度差不多的时候且深度都一样的话实际上attention、rnn、cnn三个模型的复杂度基本上是差不多的。但是attention在信息的糅杂性上好一些。 实际上attention由于对模型做的假设很少所以需要更多的数据和更大的模型才可以训练收敛。所以现在基于Transformer的模型都是特别大和特别贵。 训练设置Training Settings 文中指出在训练的时候使用AdamW优化器对模型进行优化同时使用drop out层对模型进行正则化操作然后还使用Label Smoothing技术最先出现在Inception V3中。 Label Smoothing解释在使用softmax做最后的输出的时候传统操作是如果输出接近于1那么才认为是正确的但是这里采用设置阈值为0.1表示只要对一个词预测的置信度等于或超过0.1那么就认为是正确的。 但是使用这种技术会导致最后的模型不确信度会增加。 Transformer中超参数的比较 虽然上表中看上去很多超参数但是在实际训练的时候其中能调节的N、 d m o d e l d_{model} dmodel​、h多头注意力中的头的数量h其他的超参数都是计算得到的。 结论Conclusion 结论中首先说明本文使用Transformer模型应用在机器翻译任务中同时取代了之前使用较多的RNN layers转而使用multi-headed slef-attention机制这个也是Transformer模型的核心所在。同时结论又指出在机器翻译任务上Transformer相较于RNN或CNN架构的模型具有更好性能和更快的训练收敛速度。然后作者又说对于Transformer这种纯注意力机制的模型感到激动这在后边的爆发的基于Transformer的各种任务模型架构上得到了印证。将Transformer模型架构用在输入形式不单纯为文本形式的其他形式例如图片、视频等也是作者未来研究的方向。同时使得生成不那么有序列也是未来的研究目标个人举例DETR中对N100个预测框的生成就是一次性得到的。 评价 这篇文章写作很简洁一段话基本上就是在写一件事情。在写文章的时候可以将一些不重要的东西放到附录里面。 Attention实际上只是做了整个序列信息的的聚合操作。后边的MLP等层是缺一不可的。如果缺少了这些Attention实际上是什么都学不到的。
http://www.hkea.cn/news/14440578/

相关文章:

  • 海南行指网站开发公司网站流量统计工具有哪些
  • 黄岩做网站学电商哪个培训学校好
  • 合肥 做网站的网站建设个人
  • 网站建设案例分享wordpress添加导航栏
  • 网站开发有几种语言维护网站建设
  • 自己建站模板阿里巴巴国际站app
  • 集团网站源码哪些网站可以做旅游
  • 郑州网站建设代理做建筑效果图最好的网站
  • 男女之间做那个的网站哪个网站可以做平面兼职
  • 丰都网站建设联系电话wordpress 显示微信
  • 做网站用多大配置的服务器营销公司网站模板
  • 快站科技鞍山市网络销售平台
  • 怎么做虚拟的网站津南区提供网站建设协议
  • 1网站建设公司做图标去什么网站找
  • 国土局网站建设制度广告投放媒体
  • 大同网页设计aso关键词优化工具
  • 餐饮美食网站源码宁波seo排名优化培训
  • 要找企业做网站应该注意什么淘宝做导航网站
  • 南京网站设计哪家公司好百度网页版下载
  • 北京模板建站公司的介绍怎么写
  • 现在建设网站都用什么软件企业商标设计图案免费
  • 静态网站模板马鞍山建设局网站
  • 娱乐新闻做的好的网站蒙特网站建设公司
  • 怎么选择电商网站建设怎么在wordpress添加幻灯片
  • 男女做羞羞事漫画网站免费长沙正规制作网站公司
  • 站长工具网站查询一级消防工程师考试资料
  • 大连淘宝网站建设做图片为主的网站对服务器的要求
  • 重庆建设医院网站顶尖网站设计
  • 什么是商城网站龙岗区住房和建设局官网
  • 建设网站的主要任务网站开发工资济南