当前位置: 首页 > news >正文

如何创建私人网站北京公司做网站

如何创建私人网站,北京公司做网站,网站域名记录值,c4d培训论文《Contextual Transformer Networks for Visual Recognition》 1、 作用 Contextual Transformer (CoT) block 设计为视觉识别的一种新颖的 Transformer 风格模块。该设计充分利用输入键之间的上下文信息指导动态注意力矩阵的学习#xff0c;从而加强视觉表示的能力。Co…论文《Contextual Transformer Networks for Visual Recognition》 1、 作用 Contextual Transformer (CoT) block 设计为视觉识别的一种新颖的 Transformer 风格模块。该设计充分利用输入键之间的上下文信息指导动态注意力矩阵的学习从而加强视觉表示的能力。CoT block 首先通过 3x3 卷积对输入键进行上下文编码得到输入的静态上下文表示。然后将编码后的键与输入查询合并通过两个连续的 1x1 卷积学习动态多头注意力矩阵。学习到的注意力矩阵乘以输入值实现输入的动态上下文表示。最终将静态和动态上下文表示的融合作为输出。 2、机制 1、上下文编码 通过 3x3 卷积在所有邻居键内部空间上下文化每个键表示捕获键之间的静态上下文信息。 2、动态注意力学习 基于查询和上下文化的键的连接通过两个连续的 1x1 卷积产生注意力矩阵这一过程自然地利用每个查询和所有键之间的相互关系进行自我注意力学习并由静态上下文指导。 3、静态和动态上下文的融合 将静态上下文和通过上下文化自注意力得到的动态上下文结合作为 CoT block 的最终输出。 3、 独特优势 1、上下文感知 CoT 通过在自注意力学习中探索输入键之间的富上下文信息使模型能够更准确地捕获视觉内容的细微差异。 2、动静态上下文的统一 CoT 设计巧妙地将上下文挖掘与自注意力学习统一到单一架构中既利用键之间的静态关系又探索动态特征交互提升了模型的表达能力。 3、灵活替换与优化 CoT block 可以直接替换现有 ResNet 架构中的标准卷积不增加参数和 FLOP 预算的情况下实现转换为 Transformer 风格的骨干网络CoTNet通过广泛的实验验证了其在多种应用如图像识别、目标检测和实例分割中的优越性。 4、代码 # 导入必要的PyTorch模块 import torch from torch import nn from torch.nn import functional as Fclass CoTAttention(nn.Module):# 初始化CoT注意力模块def __init__(self, dim512, kernel_size3):super().__init__()self.dim dim # 输入的通道数self.kernel_size kernel_size # 卷积核大小# 定义用于键(key)的卷积层包括一个分组卷积BatchNorm和ReLU激活self.key_embed nn.Sequential(nn.Conv2d(dim, dim, kernel_sizekernel_size, paddingkernel_size//2, groups4, biasFalse),nn.BatchNorm2d(dim),nn.ReLU())# 定义用于值(value)的卷积层包括一个1x1卷积和BatchNormself.value_embed nn.Sequential(nn.Conv2d(dim, dim, 1, biasFalse),nn.BatchNorm2d(dim))# 缩小因子用于降低注意力嵌入的维度factor 4# 定义注意力嵌入层由两个卷积层、一个BatchNorm层和ReLU激活组成self.attention_embed nn.Sequential(nn.Conv2d(2*dim, 2*dim//factor, 1, biasFalse),nn.BatchNorm2d(2*dim//factor),nn.ReLU(),nn.Conv2d(2*dim//factor, kernel_size*kernel_size*dim, 1))def forward(self, x):# 前向传播函数bs, c, h, w x.shape # 输入特征的尺寸k1 self.key_embed(x) # 生成键的静态表示v self.value_embed(x).view(bs, c, -1) # 生成值的表示并调整形状y torch.cat([k1, x], dim1) # 将键的静态表示和原始输入连接att self.attention_embed(y) # 生成动态注意力权重att att.reshape(bs, c, self.kernel_size*self.kernel_size, h, w)att att.mean(2, keepdimFalse).view(bs, c, -1) # 计算注意力权重的均值并调整形状k2 F.softmax(att, dim-1) * v # 应用注意力权重到值上k2 k2.view(bs, c, h, w) # 调整形状以匹配输出return k1 k2 # 返回键的静态和动态表示的总和# 实例化CoTAttention模块并测试 if __name__ __main__:block CoTAttention(64) # 创建一个输入通道数为64的CoTAttention实例input torch.rand(1, 64, 64, 64) # 创建一个随机输入output block(input) # 通过CoTAttention模块处理输入print(output.shape) # 打印输入和输出的尺寸
http://www.hkea.cn/news/14471496/

相关文章:

  • 站长广告联盟平台网站备案查询背景布
  • 医院网站建设合同范本石家庄网站制作软件
  • 贵阳哪些公司建网站国内营销策划咨询公司
  • 网站建设发信息汕头市作风建设的网站
  • 微网站 杭州网站开发步骤说明书是什么
  • 泉州建设工程质量网站石家庄手机建网站
  • 商用营销型网站建设自助网站建设厦门网站制作
  • 邯郸做网站哪里好广州网站排名优化开发
  • 网站建设的域名高校网站群建设的公司有哪些
  • 黄山网站设计做油漆稀料用哪个网站
  • 免费网站维护什么网站可以做电影投资
  • 长春学校网站建设方案咨询网站有了如何做推广
  • 在淘宝做印刷网站怎么办厦门易尔通网站建设好吗
  • 山东泰安特产外贸seo网站推广
  • 长沙网站制作建设文章优化关键词排名
  • 做彩票网站空间去哪买北京网站建设公司代理
  • 建设钓鱼网站源码注册公司流程时间
  • dw做的网站怎么在vs凡科轻站
  • 北京 建网站广州商务网站建设电话
  • seo教程培训深圳专业seo外包
  • 建站软件排行榜济宁市城市建设投资中心网站
  • 如何在网站中做公示信息成都网站建设 四川冠辰科技
  • 网站设置首页连接分类页的视频教程不要轻易注册一家公司
  • 中山做网站iis搭建网站怎么做前端
  • 做微网站平台室内设计课程
  • 门户网站建设 知乎如何做交易网站
  • 同城做推广哪个网站好网站推广策划的策略
  • 阿狸网站建设绍兴做网站的公司
  • 一流专业建设网站昆明seo博客南网站建设
  • 做单页网站怎么选产品宝安高端网站建设公司