当前位置: 首页 > news >正文

wordpress设置显示为英文网站seo如何做好优化

wordpress设置显示为英文,网站seo如何做好优化,高端产业主要指哪些领域,广州网站建设制作公司Abstract 贡献#xff1a; 提出了Transformer#xff0c;完全基于注意力机制#xff0c;摒弃了循环和卷积网络。 结果#xff1a; 本模型在质量上优于现有模型#xff0c;同时具有更高的并行性#xff0c;并且显著减少了训练时间。 1. Introduction long short-term …Abstract 贡献 提出了Transformer完全基于注意力机制摒弃了循环和卷积网络。 结果 本模型在质量上优于现有模型同时具有更高的并行性并且显著减少了训练时间。 1. Introduction long short-term memoryLSTM——长短期记忆网络gated recurrent neural networks——门控循环神经网络 循环模型通常沿着输入和输出序列的符号位置来分解计算。通过将位置与计算时间步骤对齐它们生成一系列隐藏状态 ht作为前一个隐藏状态 ht−1 和位置 t 的输入的函数。 Transformer完全摒弃循环网络、完全依赖注意力机制来捕捉输入和输出之间全局依赖关系的模型架构。 显著允许增加并行化。 2. Background 减少序列计算。 Extended Neural GPUByteNetConvS2S 在这些模型中关联任意两个输入或输出位置信号所需的操作次数随着位置之间的距离而增加。 Self-attention是一种通过关联同一序列中不同位置来计算该序列表示的注意力机制。 End-to-end memory networks基于一种循环注意力机制而不是与序列对齐的循环网络。 Transformer是第一个完全依赖自注意力来计算输入和输出表示的转换模型没有使用与序列对齐的RNN或卷积网络。 3. Model Architecture 编码器输入x输出z解码器输入z输出y。 在每一步模型都是自回归的在生成下一步时使用先前生成的符号作为附加输入。 3.1 Encoder and Decoder Stacks 编码器 N6每个两层。 第一层多头自注意力机制 第二层逐位置全连接前馈网络。 残差连接层归一化即LayerNorm(x Sublayer(x))。 维度 d m o d e l 512 d_{model} 512 dmodel​512。 解码器 N6每个三层。 二三层同上。 第一层掩码多头自注意力机制。 这种掩码机制结合输出嵌入偏移一个位置确保位置 i 的预测只能依赖于位置 i 之前已知的输出。 3.2 Attention 注意力函数可以描述为将查询query和一组键-值对key-value pairs映射到一个输出其中查询、键、值和输出都是向量。 输出是根据值value的 加权和 计算得到的权重是通过查询query与相应键key之间的兼容性函数计算得出的。 3.2.1 Scaled Dot-Product Attention——缩放点积注意力 输入由维度为 dk 的查询和键以及维度为 dv 的值组成计算查询与所有键的点积将每个点积除以 d k \sqrt{d_k} dk​ ​并应用 softmax 函数以获得值的权重。 在实际应用中会同时对一组查询计算注意力函数使用矩阵计算。 输出矩阵 A t t e n t i o n ( Q , K , V ) s o f t m a x ( Q K T d k ) V Attention(Q, K, V) softmax\left(\frac{QK^T}{\sqrt{d_k}}\right)V Attention(Q,K,V)softmax(dk​ ​QKT​)V 加性注意力点积注意力 对于较大的 dk 值如果没有缩放点积的数值可能会变得很大从而将 softmax 函数推入梯度极小的区域所以缩放 d k \sqrt{d_k} dk​ ​ 。 为什么选择 d k \sqrt{d_k} dk​ ​​​ 而不是其他数这与点积结果的统计性质有关。 3.2.2 Multi-Head Attention h8dkdvdmodel/h64 将查询、键和值分别线性投影为 dk、dk 和 dv 维度的 h 次不同的线性投影。 在这些投影后的查询、键和值上并行执行注意力函数得到 dv​ 维度的输出值。 输出拼接起来并再次投影得到最终的输出值。 多头注意力允许模型在不同的位置上同时关注来自不同表示子空间的信息。 多头注意力公式 M u l t i H e a d ( Q , K , V ) C o n c a t ( h e a d 1 , … , h e a d h ) W O MultiHead(Q, K, V) Concat(head_1, \dots, head_h) W^O MultiHead(Q,K,V)Concat(head1​,…,headh​)WO 第 i 个头的注意力为: h e a d i A t t e n t i o n ( Q W i Q , K W i K , V W i V ) head_i Attention(Q W^Q_i, K W^K_i, V W^V_i) headi​Attention(QWiQ​,KWiK​,VWiV​) 投影矩阵分别为 W i Q ∈ R d m o d e l × d k , W i K ∈ R d m o d e l × d k , W i V ∈ R d m o d e l × d v , W O ∈ R h d v × d m o d e l . W^Q_i \in \mathbb{R}^{d_{model} \times d_k}, \quad W^K_i \in \mathbb{R}^{d_{model} \times d_k}, \quad W^V_i \in \mathbb{R}^{d_{model} \times d_v}, \quad W^O \in \mathbb{R}^{h d_v \times d_{model}}. WiQ​∈Rdmodel​×dk​,WiK​∈Rdmodel​×dk​,WiV​∈Rdmodel​×dv​,WO∈Rhdv​×dmodel​. 3.2.3 Applications of Attention in our Model 编码器-解码器注意力层 查询来自前一层的解码器键和值来自编码器的输出。 编码器自注意力层 键、值和查询全部来自同一个地方它们都来自编码器中前一层的输出。 解码器自注意力层 允许解码器中的每个位置关注解码器中该位置及之前的所有位置。 需要阻止解码器中的左向信息流动。 3.3 Position-wise Feed-Forward Networks——按位置的前馈网络 编码器和解码器中的每一层还包含一个全连接的前馈网络。 该网络由两次线性变换构成中间使用 ReLU 激活函数 F F N ( x ) max ⁡ ( 0 , x W 1 b 1 ) W 2 b 2 FFN(x) \max(0, xW_1 b_1)W_2 b_2 FFN(x)max(0,xW1​b1​)W2​b2​ 线性变换在不同位置之间是相同的但它们在不同层次之间使用不同的参数。 另一种描述方式是将其看作两个卷积卷积核大小为1。输入和输出的维度为 dmodel512而内部层的维度为 dff2048。 3.4 Embeddings and Softmax——嵌入和Softmax 使用学习到的嵌入embeddings来将输入标记tokens和输出标记转换为dmodel维的向量。 使用常规的线性变换和 Softmax 函数将解码器的输出转换为预测的下一个标记的概率。 在两个嵌入层和 Softmax 之前的线性变换中共享相同的权重矩阵。 在嵌入层中将这些权重乘以 d m o d e l \sqrt{d_{model}} dmodel​ ​ ​​。 3.5 Positional Encoding——位置编码 在编码器和解码器堆栈的底部将“位置编码”添加到输入嵌入中。 位置编码的维度与嵌入相同均为 dmodel​这样两者可以相加。 位置编码使用不同频率的正弦和余弦函数 P E ( p o s , 2 i ) sin ⁡ ( p o s 1000 0 2 i d m o d e l ) PE(pos, 2i) \sin\left(\frac{pos}{10000^{\frac{2i}{d_{model}}}}\right) PE(pos,2i)sin(10000dmodel​2i​pos​) P E ( p o s , 2 i 1 ) cos ⁡ ( p o s 1000 0 2 i d m o d e l ) PE(pos, 2i1) \cos\left(\frac{pos}{10000^{\frac{2i}{d_{model}}}}\right) PE(pos,2i1)cos(10000dmodel​2i​pos​) pos 是位置i 是维度。 位置编码的每个维度都对应于一个正弦波。 对于任何固定的偏移量 k位置 P E p o s k PE_{posk} PEposk​​ 可以表示为位置 P E p o s PE_{pos} PEpos​​ 的线性函数。 4. Why Self-Attention 自注意力层与 将一个可变长度的符号表示序列x1, …, xn映射到另一个等长度的序列z1, …, zn的循环层和卷积层 进行比较。 总计算复杂度并行化的计算量长距离依赖的路径长度 学习长距离依赖一个关键因素是前向和后向信号在网络中必须穿过的路径长度。输入和输出序列中任意位置组合之间的这些路径越短学习长距离依赖就越容易。 比较了由不同类型层组成的网络中任意两个输入和输出位置之间的最大路径长度。 在计算复杂度方面当序列长度n小于表示维度d时自注意力层比循环层更快。 为了提高涉及非常长序列的任务的计算性能自注意力可以限制为仅考虑输入序列中以相应输出位置为中心的、大小为r的邻域。这将使最大路径长度增加到O(n/r)。 具有核宽度k n的单个卷积层不会连接所有输入和输出位置对。在连续核的情况下这需要堆叠O(n/k)个卷积层在膨胀卷积的情况下则需要O(logk(n))个卷积层。 不仅单个注意力头明显学会了执行不同的任务而且许多注意力头似乎表现出与句子句法和语义结构相关的行为。 可分离卷积大大降低了复杂度降至O(k · n · d n · d^2)。 5. Training 5.1 Training Data and Batching WMT 2014英德数据集每个训练批次包含一组句子对其中包含大约25,000个源标记和25,000个目标标记。 5.2 Hardware and Schedule 8个NVIDIA P100 GPU基础模型训练了100,000个步骤12小时大型模型训练了300,000个步骤3.5天 5.3 Optimizer Adam优化器 β 1 0.9 \beta_1 0.9 β1​0.9、 β 2 0.98 \beta_2 0.98 β2​0.98 和 ϵ 1 0 − 9 \epsilon 10^{-9} ϵ10−9 学习率公式 l r a t e d model − 0.5 ⋅ min ⁡ ( step_num − 0.5 , step_num ⋅ warmup_steps − 1.5 ) lrate d_{\text{model}}^{-0.5} \cdot \min(\text{step\_num}^{-0.5}, \text{step\_num} \cdot \text{warmup\_steps}^{-1.5}) lratedmodel−0.5​⋅min(step_num−0.5,step_num⋅warmup_steps−1.5) 对应于在前 w a r m u p _ s t e p s warmup\_steps warmup_steps 个训练步骤中线性增加学习率此后按步数的平方根倒数比例减少学习率。 设置 w a r m u p _ s t e p s 4000 warmup\_steps 4000 warmup_steps4000 。 5.4 Regularization 三种正则化方法 残差 Dropout 每个子层的输出加入残差并进行归一化之前应用 dropout。 编码器和解码器堆栈中的嵌入和位置编码的和上应用 dropout。 dropout 率为 P d r o p 0.1 P_{drop} 0.1 Pdrop​0.1 标签平滑 值为 ϵ l s 0.1 \epsilon_{ls} 0.1 ϵls​0.1。 影响困惑度因为模型会学得不那么确定但能提高准确度和 BLEU 分数。 6. Results 6.1 Machine Translation 6.2 Model Variations 7. Conclusion Transformer这是第一个完全基于注意力机制的序列转换模型它用多头自注意力替代了在编码器-解码器架构中最常用的循环层。 计划将 Transformer 扩展到涉及文本以外的输入和输出模式的问题中并研究局部、受限的注意力机制以便高效处理如图像、音频和视频等大型输入和输出。减少生成过程的顺序性也是研究目标之一。
http://www.hkea.cn/news/14286553/

相关文章:

  • 网站建设相关参考资料免费门户网站搭建
  • 厦门成品网站建筑资料网
  • 网站颜色视频网站后台功能
  • 视频网站建设多少钱ico网站进行推广
  • 怎样制作免费手机网站上门做网站公司哪家好
  • 深圳商业网站建设哪家专业如何上传wordpress程序
  • 网页设计与制作教程考试aso优化公司
  • 九牧全球市场地位seo做的最好的十个网站
  • 淘宝客网站域名备案吗网站建设教程下载
  • 合肥制作网站企业网站开发怎么人员组织
  • 网站建设注意哪些事项wordpress style.
  • 响应式网站怎么制作万方数据库
  • 有四川建设人才网这个网站吗微信企业邮箱登录入口
  • 网站建设怎么引流工作正能量励志句子
  • 对网站开发流程的了解广告公司简介宣传册
  • 网站服务流程建立网站的流程的合理顺序
  • 佛山seo网站优化淮南论坛网
  • 中山网络公司网站建设创新创意产品设计作业
  • 做网站要开发嘛品牌衣服商标图案大全
  • 闵行网站建设推广如何运营微信公众号
  • 外汇自动跟单网站开发谷歌seo是什么职业
  • 西宁 专业网站建设深圳龙华做网站的
  • 卓拙科技做网站吗网站升级的内容包括哪些
  • 建立一个公司东莞seo优化
  • 高佣联盟做成网站怎么做深圳seo论坛
  • 珠海移动app开发公司网站建设智能优化
  • 企业网站设计风格wordpress vr主题
  • 保定网站建设设计公司孝感58同城网站建设
  • 做二手车网站需要什么手续费wordpress图片文件目录下
  • 网站备案转移有趣的h5创意设计