当前位置: 首页 > news >正文

虹口上海网站建设网站建设运行问题及建议

虹口上海网站建设,网站建设运行问题及建议,个人如何做购物网站 关于支付接口,网站建设中最重要的环节是什么一、说明 自我注意机制是现代机器学习模型中的关键组成部分#xff0c;尤其是在处理顺序数据时。这篇博文旨在提供这种机制的详细概述#xff0c;解释它是如何工作的#xff0c;它的优点#xff0c;以及它背后的数学原理。我们还将讨论它在变压器模型中的实现和多头注意力的… 一、说明         自我注意机制是现代机器学习模型中的关键组成部分尤其是在处理顺序数据时。这篇博文旨在提供这种机制的详细概述解释它是如何工作的它的优点以及它背后的数学原理。我们还将讨论它在变压器模型中的实现和多头注意力的概念。本指南适用于任何有兴趣了解自我注意在时间序列分析中的作用的人无论他们在该领域的专业水平如何。 自我注意层提供了一种捕获顺序数据如时间序列中的依赖关系的有效方法。使用自我注意进行时间序列/序列分析背后的关键直觉在于它能够为输入序列中的不同步骤分配不同的重要性权重使模型能够专注于输入中最相关的部分以进行预测。 内容 它是如何工作的简化的理解方式自我注意的数学位置编码计算权重背后的直觉查询、键和值注意力层输入词嵌入多头注意力自我注意RNN1D CONV变压器型号 二、它是如何工作的一种简化的理解方式。 以下是理解它的简化方法 捕获长期依赖关系传统的序列模型如递归神经网络RNN及其变体如LSTM和GRU有时会由于梯度消失等问题而难以解决长期依赖关系。然而自我注意可以捕获序列中任何两点之间的依赖关系无论它们的距离如何。这种能力在时间序列分析中特别有价值因为过去的事件即使是遥远的过去事件也可以影响未来的预测。加权重要性自我注意计算一个权重该权重表示特定时间步长的其他时间步长的重要性或相关性。例如在股票价格的时间序列中模型可以学习更多地关注与重大市场事件相对应的时间步长。并行化与按顺序处理数据的 RNN 不同自我注意力同时对整个序列进行操作允许并行计算。这使得它在处理大型时间序列时更快、更高效。可解释性自我注意层可以提供一种形式的可解释性因为注意力权重可以深入了解模型认为对每个预测重要的时间步长。 三、自我注意的数学 在注意力机制中给定一组向量值和一个向量查询注意力根据查询和一组键向量计算值的加权和。查询、键和值都是向量;它们的维数是模型的一个参数它们都是在训练过程中学习的。 变形金刚中使用的特定注意力类型称为缩放点积注意力。以下是它的工作原理 计算注意力分数对于每个查询和键对计算查询和键的点积。这将生成一个表示查询和键之间的“匹配”的数字。这是对所有查询键对完成的。比例分数然后通过将其除以查询/键向量维度的平方根来缩放分数。这样做是为了防止点积随着维数的增加而变得太大。应用 softmax接下来将 softmax 函数应用于每个查询的这些缩放分数。这可确保分数为正且总和为 1。这使得它们可以用作加权总和的权重。计算输出最后每个查询的输出计算为值向量的加权和使用 softmax 输出作为权重。 在数学上它可以表示如下 注意 Q K V SoftMaxQKT / sqrtdk V 这里 Q 是查询矩阵。K 是键的矩阵。V 是值的矩阵。dk 是查询/键的维度。运算 QK^T 表示 Q 的点积和 K 的转置。 此过程针对输入序列中的每个位置执行允许每个位置以加权方式关注所有其他位置权重由查询和每个键之间的兼容性确定。 自我注意层架构 四、位置编码 位置编码是一种技术用于为模型提供有关句子中单词相对位置的一些信息。 变压器基于自我注意机制它本质上不考虑句子中单词的顺序。这与 RNN 或 LSTM 等模型不同后者按顺序处理输入因此自然地合并单词的位置。 位置编码在传递到自我注意层之前被添加到输入嵌入表示单词中。位置编码是对句子中单词的位置进行编码的向量。这些向量的设计方式使模型可以轻松地学习根据单词之间的距离来关注单词。 位置编码的确切形式可能会有所不同。在原始变压器模型中位置编码是使用涉及正弦和余弦函数的特定公式创建的。但是其他形式的位置编码例如学习的位置编码也是可能的。 在图中位置编码表示为输入嵌入之后的单独步骤但在实践中位置编码通常在传递到自我注意层之前添加到嵌入中。 五、计算权重背后的直觉 在自我注意机制中步骤的重要性与该步骤的内容有着内在的联系。例如考虑在自然语言处理任务中使用自我注意力的转换器体系结构。该模型为输入中的每个单词计算一组注意力分数步骤的“重要性”这些分数指示在将当前单词编码为上下文相关表示时应考虑多少其他单词。 自我注意机制本质上考虑了整个输入序列并根据每个单词的语义和句法关系确定每个单词对当前单词的重要性。此关系是通过计算查询向量表示当前单词和键向量表示另一个单词的点积来确定的。然后是 SoftMax 操作以确保所有注意力分数的总和为 1。 这些查询、键和值向量是在训练过程中学习的因此一个单词的重要性及其与另一个单词的关系可以根据使用它的上下文而变化。注意力权重实质上在输入序列上形成一个分布表示在对当前单词进行编码时哪些单词是重要的。因此学习的重要性权重注意力分数确实与内容相关并与特定单词相关联。每个单词的上下文即它与序列中其他单词的关系决定了模型在对序列中的不同单词进行编码时对该单词的关注程度。例如如果你正在处理句子“黑色的猫坐在垫子上”那么在编码单词“cat”时自我注意机制可能会为“黑色”和“sat”分配高注意力分数表明这些单词对于理解此句子中“cat”的上下文很重要。 六、查询、键和值 通过乘以训练期间学习的三个不同的权重矩阵将层的输入转换为查询、键和值向量。查询和关键向量用于计算注意力分数这些分数确定对输入的每个部分的关注程度。然后使用值向量创建基于这些分数的加权组合。这种加权组合是自我注意层的输出。 注意力机制中的键和值向量派生自输入嵌入并且两者都扮演着不同的角色 关键向量 K关键向量用于计算注意力分数。在句子或序列的上下文中它们代表单词的“上下文身份”用于注意力评分。句子中的每个单词都与一个键相关联该键用于通过查询计算点积以计算注意力分数。此分数反映了与该键关联的单词与查询所表示的单词的相关性。值向量 V值向量用于将 SoftMax 函数应用于注意力分数后的加权和的计算。它们是平均在一起形成注意力层输出的东西。在某种程度上您可以将价值向量视为由注意力分数加权的“内容”。 本质上键用于确定“如何注意”即它们计算与查询的兼容性分数值用于确定“要注意什么”即它们有助于基于注意力分数的最终输出。 在句子中为每个单词计算一个查询、一个键和一个值。特定单词的查询与所有键包括其自身交互以计算注意力分数然后用于对值进行加权。 例如如果我们有句子“猫坐在垫子上”在处理单词“sat”时模型将使用与“sat”关联的查询并使用与“The”、“cat”、“sat”、“on”、“the”和“mat”关联的键计算其点积。这将导致注意力分数表示模型在尝试理解“sat”的含义时应该关注这些单词中的每一个。然后使用这些分数对与每个单词关联的值向量进行加权并将它们相加以产生输出。 请务必注意查询、键和值未显式链接到特定字词或含义。它们是在训练期间学习的模型确定如何最好地使用它们来完成训练的任务。 七、注意力层输入词嵌入 在机器学习中模型不会像人类那样“理解”或“记住”单词。相反它们以数字表示单词并学习这些表示中的模式。有多种方式可以对单词进行数字表示例如单词袋、TF-IDF 和单词嵌入。 深度学习模型中最常见的方法如变形金刚是使用词嵌入。以下是其工作原理的简化说明 词嵌入词汇表中的每个单词都映射到实数向量形成其词嵌入。此向量通常有几百维长。这些向量最初是随机分配的。上下文学习在训练期间模型根据每个单词出现的上下文调整单词嵌入。经常出现在类似上下文中的单词将具有类似的嵌入。因此例如“猫”和“小猫”最终可能会有类似的嵌入因为它们都经常用于关于宠物的句子中。反向传播和优化学习是通过称为反向传播的过程完成的。该模型根据当前嵌入进行预测然后计算这些预测与实际值之间的误差。然后此错误用于调整嵌入以使预测更接近实际值。捕获含义随着时间的推移这些单词嵌入开始捕获语义和句法含义。例如模型可能会了解到“猫”和“狗”彼此更相似两者都是宠物而不是“猫”和“汽车”。 在像变形金刚这样的自我注意模型中这些单词嵌入然后作为自我注意层的输入其中不同单词之间的关系被进一步建模。每个单词不仅由其自己的嵌入表示而且还受到句子中与之交互的单词嵌入的影响从而允许每个单词的丰富上下文相关的表示。 重要的是要注意该模型不会像人类那样“理解”单词。它不知道猫是一种小型的、典型的毛茸茸的、驯化的、肉食性的哺乳动物。它只知道它学到的数字表示和这些数字中的模式。它学习的语义关系纯粹基于它所训练的数据中的模式。 八、多头注意力 多头注意力是转换器模型架构的关键组件用于允许模型专注于不同类型的信息。 多头注意力背后的直觉是通过多次并行应用注意力机制这些并行应用是“头”模型可以捕获数据中不同类型的关系。 每个注意力头都有自己的学习线性转换它应用于输入嵌入以获取其查询、键和值。因为这些转换是分开学习的所以每个头都有可能学会专注于不同的事情。在自然语言处理的背景下这可能意味着一个头学会注意句法关系如主谓一致而另一个头可以学习关注语义关系如单词同义词或主题角色。 例如在处理句子“猫坐在垫子上”时一个注意力头可能会关注“猫”和“坐着”之间的关系捕捉猫是坐着的人的信息而另一个头可能更关注“坐”和“垫子”之间的关系捕捉关于坐在哪里发生的信息。 然后所有头部的输出被串联并线性变换形成多头注意力层的最终输出。这意味着每个头部捕获的不同类型的信息被组合在一起形成一个统一的表示。 通过使用多个磁头Transformers允许对输入进行比单一注意力机制应用更复杂和细致的理解。这在一定程度上有助于提高它们在广泛任务上的效力。 没有一种直接的机制可以确保每个注意力头在训练期间学习不同的东西。相反这种行为自然地出现在训练过程的随机随机性质以及每个注意力头以不同的随机初始化参数开始的事实中。 原因如下 随机初始化神经网络中的权重通常使用较小的随机值进行初始化。由于每个注意力头都有自己的一组权重因此它们从重量空间的不同位置开始。随机梯度下降神经网络通常使用随机梯度下降的变体进行训练。这包括向模型显示一小批随机选择的训练数据计算模型在此批次上产生的误差以及调整模型的权重以减少此错误。由于选择这些批次涉及随机性每个头可能会在数据中看到略有不同的模式从而导致他们学习不同的东西。反向传播在反向传播期间由于初始参数和学习过程的性质不同每个磁头都会接收不同的误差信号梯度。这些不同的错误信号将每个头部的重量推向不同的方向进一步鼓励他们学习不同的东西。 然而值得注意的是上述因素只会让每个头脑都倾向于学习不同的东西。不能保证。在实践中一些头部可能会学习类似甚至多余的表示。这是深度学习领域正在进行的研究领域提出了各种正则化技术以鼓励每个头部学习的表示更加多样化。 此外虽然目标是让不同的负责人学习数据的不同方面但重要的是他们都学习对手头任务的有用信息。因此这是鼓励多样性和确保每个头部都为模型的整体性能做出贡献之间的平衡。 九、自我注意RNN1D CONV 9.1 自我关注 优点自我注意特别是以转换器模型的形式允许并行计算这大大加快了训练速度。它还捕获元素之间的依赖关系而不管它们在序列中的距离如何这对许多 NLP 任务都是有益的。 缺点自注意相对于序列长度具有二次计算复杂性这可能使其对于非常长的序列效率低下。此外它本身不会捕获序列中的位置信息因此需要位置编码。 应用自我注意广泛用于NLP任务如翻译总结和情感分析。基于自我注意的变压器模型是BERTGPT和T5等模型的基础。 计算需求由于其二次复杂性自我注意需要更多的内存但它允许并行计算这可以加快训练速度。 9.2 RNN 优点RNN 擅长处理序列可以捕获序列中接近的元素之间的依赖关系。它们也相对简单并且已广泛使用多年。 缺点RNN存在消失和爆炸梯度问题这使得它们难以在长序列上进行训练。它们还按顺序处理序列这会阻止并行计算并减慢训练速度。 应用RNN 用于许多 NLP 任务包括语言建模、翻译和语音识别。 计算需求RNN的内存要求低于自我注意但它们无法并行处理序列使得训练速度变慢。 9.3 转换1D 优点Conv1D 可以捕获本地依赖关系并且比 RNN 更有效因为它允许并行计算。它也不太容易出现消失和爆炸梯度问题。 缺点Conv1D具有固定的感受野这意味着它可能无法捕获长期依赖关系以及自我注意或RNN。它还需要仔细选择内核大小和层数。 应用Conv1D 通常用于涉及时间序列数据的任务例如音频信号处理和物联网数据中的异常检测。在 NLP 中它可用于文本分类和情感分析。 计算需求在内存和计算方面Conv1D 比 RNN 和自我注意力更有效特别是对于涉及本地依赖的任务。 十、变压器型号 Vaswani等人在论文“注意力是你所需要的一切”中介绍的变压器模型由编码器和解码器组成每个解码器都由一堆相同的层组成。反过来这些层主要由两个子层组成多头自注意力机制和位置全连接前馈网络。 让我们回顾一下每个组件 多头自注意力机制自我注意机制允许模型根据输入序列中不同单词与当前正在处理的单词的相关性对其进行权衡和编码。多头注意力允许模型捕获单词之间的不同类型的关系例如句法、语义。按位置全连接前馈网络这是一个标准的前馈神经网络可独立应用于每个位置。它用于转换自我注意层的输出。虽然自我注意层帮助模型理解单词之间的上下文关系但前馈网络帮助模型了解单词本身。残差连接和层归一化变压器层中的两个子层自注意和前馈中的每一个都有围绕它的残差连接然后是层归一化。这有助于缓解梯度消失问题并使模型在堆叠到深度架构中时能够得到有效训练。 变压器层的体系结构。具有可训练参数的图层以橙色显示 堆叠多个 Transformer 层背后的关键直觉与任何深度学习模型相同模型中的每一层都有可能学习捕获不同级别的抽象。在语言的上下文中较低层可能会学习理解简单的句法结构而较高层可能会学习理解更复杂的语义。 例如在句子“黑白相间的猫坐在垫子上”中较低层可能侧重于理解相邻单词之间的局部关系而较高层可能会学习理解句子的整体结构以及“黑与白”提供有关“猫”的额外信息的事实。 法尔扎德·卡拉米
http://www.hkea.cn/news/14304937/

相关文章:

  • 网站域名重定向怎么做wordpress域名自动重复
  • 哈尔滨搜索引擎建站网站设计论文前言
  • 网站一年的维护费用开发微信公众号公司
  • 有哪些网站是静态网站小红书seo排名优化
  • 佛山市专注网站建设报价下载建行手机银行官方正式版
  • 比较好的建站网站网络推广方案微xiala11
  • 如何建立自己的网站?找兼职h5网站开发人员
  • 做网站最简单的方法上海app开发推荐中伟科
  • 淮安做网站的有多少钱凡客诚品衬衫
  • 网站开发 财务自由wordpress搜索收录
  • 网站推广方案中确定目标是指网站建设的未来
  • net网络网站建设烟台装修公司网站建设
  • 做运动鞋评价的网站做网站和APP需要多少钱
  • 贵阳专业做网站盘锦网站建设 盘锦建站推广 盘锦建站
  • asp如何做网站医院门户网站建设规划
  • 中国建设银行北京招聘信息网站二次元wordpress博客主题
  • 微信小程序企业网站电子商务网站的建设心得体会
  • 写方案的网站官方网站建设报价表
  • 企业网站内页金华高端网站建设
  • 网站免费建站人生若只初相见04中山专业外贸网站开发
  • 个人网站注册平台要多少钱浙江平安建设信息系统网站
  • 南山网站设计训株洲网站建设 磐石网络
  • 预约网站怎么做西安网站设计与建设
  • 公众号开发 网站开发毕设 网站开发的必要性
  • 品牌形象网站建设云南工程建设投标网上报名网站
  • 理财平台网站建设wix做的网站能扒下来
  • 做历史卷子的网站网站建设需要哪些资质
  • 信息科技公司网站邯郸网站优化怎么做
  • 最好的品牌设计网站建设免费微网站案例
  • 织梦网站seo套模板做网站电话