当前位置: 首页 > news >正文

网站建设方案对比分析报告google登录入口

网站建设方案对比分析报告,google登录入口,邵武建设局网站,成都广告设计制作公司文章地址#xff1a;https://arxiv.org/abs/2111.09886 代码地址#xff1a;https://github.com/microsoft/SimMIM 文章目录 摘要文章思路创新点文章框架Masking strategyPrediction headPrediction targetEvaluation protocols 性能实验实验设置Mask 策略预测头目标分辨率预… 文章地址https://arxiv.org/abs/2111.09886 代码地址https://github.com/microsoft/SimMIM 文章目录 摘要文章思路创新点文章框架Masking strategyPrediction headPrediction targetEvaluation protocols 性能实验实验设置Mask 策略预测头目标分辨率预测目标 比较实验与基于 ViT 的不同模型比较与不同大小的 Swin Transformer 比较可视化结果学习能力预测与重建对比mask patch size 大小 结论 摘要 本文介绍了SimMIM这是一个用于掩模图像建模的简单框架。我们简化了最近提出的相关方法而不需要特殊的设计例如通过离散VAE或聚类进行分块掩蔽和标记化。为了研究是什么使掩蔽图像建模任务学习良好的表示我们系统地研究了我们框架中的主要组件并发现每个组件的简单设计都揭示了非常强的表示学习性能1对具有适度大的掩蔽补丁大小例如32的输入图像进行随机掩蔽可以生成强大的文本前任务2 通过直接回归预测原始像素的RGB值并不比具有复杂设计的补丁分类方法差3 预测头可以像线性层一样轻性能不会比较重的预测头差。使用ViT-B我们的方法通过在该数据集上进行预训练在ImageNet-1K上实现了83.8%的top 1微调精度超过了以前的最佳方法0.6%。当应用于具有约6.5亿个参数的更大模型SwinV2H时仅使用ImageNet-1K数据它在ImageNet-1 K上就实现了87.1%的top 1精度。我们还利用这种方法来解决大规模模型训练所面临的数据匮乏问题即3B模型SwinV2-G被成功训练以在四个具有代表性的视觉基准上实现最先进的精度使用的标记数据比以前的实践JFT-3B少40倍。 文章思路 类似于 MAE SimMIM 也是基于 mask 建模的一种框架但是该框架更简单。 整体框架来说SimMIM 主要步骤为 mask 输入图片将图像输入 encoder 再经过一个 predictor head 即可得到输出结果只将 encoder 用于下游任务。 与 MAE 相对比二者区别在于 MAE 的 mask patch size 大小和切割图像的 patch size 大小一致SimMIM 的 mask patch size 比切割图像的 patch size 大为其整数倍即 SimMIM 中可以屏蔽多个图像的小 patch 例如下图中蓝色格子表示图像切割的 patch 橙色阴影表示 mask patch MAE 的 encoder 和 decoder 均采用 transformer 结构SimMIM 只在 encoder 中使用了 transformer 预测任务由一个简单的 predictor 承担相当于 decoder 只使用了一层 MLP 创新点 在本文中我们提出了一个简单的框架该框架与视觉信号的性质非常一致并且能够学习与以前更复杂的方法类似甚至更好的表示输入图像块的随机掩蔽使用线性层将掩蔽区域的原始像素值与l1损失。这个简单框架背后的关键设计和见解包括 随机掩蔽应用于图像 patch 这对视觉 Transformer 来说既简单又方便。对于掩蔽像素较大的 patch 大小或较高的 mask ratio 都会导致找到接近的可见像素的机会较小。 使用原始像素回归任务。这个简单的任务并不比通过标记化、聚类或离散化专门定义类的分类方法差。 采用了一种非常轻的预测头例如线性层它实现了与较重的预测头类似或略好的传输性能。超轻的预测头的使用在预训中带来了显著的加速虽然较重的预测头或较高的分辨率通常会产生更大的预测能力但这种更大的能力并不一定有利于下游微调任务。 文章框架 SimMIM方法通过掩码图像建模来学习表示该方法对输入图像信号的一部分进行掩码并预测在掩码区域的原始信号。该框架由4个主要组件组成 Masking strategy 给定一张输入图像选择掩码的区域对所选区域进行掩码。经过掩码后的图像作为模型输入。Encoder architecture. encoder 提取掩码图像上潜在的特征表示。经过学习的 encoder 可用于不同的下游任务。在本文中主要考虑两种典型的 vision Transformer 架构: vanilla ViT 和 Swin Transformer。Prediction head. Prediction head 将特征表示转换为掩码区域中的原始信号。相当于一个简单的 decoder 。Prediction target. Prediction target 定义了要预测的原始信号的形式和损失类型。 Masking strategy 使用可学习的 mask token 向量来替换每个 masked patch token 向量维度与 patch embedding 之后的其他可见 patch 的维度相同 作者尝试了不同的掩码方式 Patch对齐的随机掩码策略右四-右一。 对于Swin Transformer考虑相同的不同分辨率的补丁大小4×4 ~ 32×32默认采用32×32的补丁大小。 对于ViT采用32×32作为默认掩码补丁大小。 其他掩码策略。 ①中心区域掩码策略左二让其在图像上随机移动 ②块级掩码策略左三利用分别为16x16和32x32的两种掩码块进行掩码 Prediction head Prediction head 可以是任意形式和容量只要其输入符合编码器输出并且其输出实现预测目标即可。 一些早期工作遵循AutoEncoder采用重型预测头decoder。在本文中我们展示了预测头可以做得非常轻就像线性层一样轻。我们还尝试了较重的头部如2层MLP、反向Swin-T和反向Swin-B。 Prediction target 原始像素值回归 像素值在颜色空间中是连续的。一个直接的选项是通过回归来预测 mask 区域的原始像素。一般来说视觉架构通常生成下采样分辨率的特征图。 1为了预测输入图像的全分辨率下的所有像素值作者将 feature map 中的每个特征向量映射回原始分辨率并让该向量负责相应的原始像素的预测。 例如在 Swin Transformer 编码器生成的32×下采样特征图上我们应用输出维度为 3072 32×32×3 的 1 × 1 卷积(线性)层来表示 32×32 像素的 RGB 值 2在掩码像素上使用 L1-loss. 在实验中还考虑了 L2 和 smooth-L1 损失效果与之类似默认采用 L1 损失。 x, y 分别为输入 RGB 值和预测值M 为 mask 像素集合Ω(·) 是元素的个数。 其他预测目标 ①Color clustering 在iGPT中利用大量自然图像通过 k-means 将 RGB 值分成 512 个簇。然后每个像素被分配到最近的簇中心。这种方法需要一个额外的聚类步骤来生成 9 位调色板。 ②Vision tokenization在BEiT中采用离散 VAE (dVAE) 网络将图像 patch 转换为 dVAE tokens 。token 可用作为分类目标。在这种方法中需要预训练一个额外的 dVAE 网络。 ③Channel-wise bin color discretization将R、G、B通道分别进行分类每个通道离散为相同的bins。 Evaluation protocols 主要通过对 ImageNet-1K 图像分类进行微调来评估学习到的表征的质量这在实践中是一个更有用的场景。 在系统级比较中我们遵循先前的工作报告了线性探测的先前主导度量的性能。但是在应用中并不会考虑这个线性探测指标因为我们的主要目标是学习可以很好地补充下游任务的表示。 性能实验 实验设置 在预训练中采用带余弦学习率调度器的AdamW优化器训练100个epoch。训练超参数为batch size为2048基础学习率为 8e-4权衰减为0.05β1 0.9 β2 0.999, 预热10个epoch。 采用 Swin-B 作为默认骨干网络。默认的输入图像大小为192×192并将窗口大小调整为 6 以适应改变的输入图像大小。ImageNet-1K 图像分类数据集用于预训练和微调。 采用数据增强随机调整大小裁剪比例范围为[0.67,1]宽高比范围为[3/ 4,4 /3]然后进行随机翻转和颜色归一化步骤。 SimMIM组件的默认选项是一个随机 mask 策略patch 大小为32×32mask ratio 为0.6目标图像大小为192×192的线性预测头掩码像素预测的L1损失。 在微调中使用 AdamW 优化器、100 epoch 训练和带有10 epoch 预热的余弦学习率调度器。微调超参数为batch size 大小为2048基础学习率为5e-3权衰减为0.05β1 0.9 β2 0.999随机深度比为0.1分层学习率衰减为0.9。采用数据增强RandAug、Mixup、Cutmix、label smoothing和random erase。 Mask 策略 不同掩码策略在不同掩码率的微调精度不同取得的结果差距不大其中randommasked patch size32x32mask ratio0.5可取得最优的效果83.0% 采用较小的 masked patch size4x48x816x16模型效果随着 mask ratio 的增加而提升当采用较大的 masked patch size32x32时在较宽的 mask ratio 范围(10%-70%)上表现稳定而对于更大的 masked patch size64x64需要采用较小的 mask ratio 才能得到较好的结果。 masked patch size 和 mask ratio 影响的是MIM任务的难度两者越大MIM任务越难要想取得较好的模型训练效果MIM任务的难度要适当大一些。 为解释上述现象作者提出假设假设一个**大 mask patch size ** 的中心像素距离可见像素足够远。因此即使使用了较低的 mask ratio 它也会迫使网络学习相对较长的连接。使用更大的 mask ratio 也会增加预测距离。这也证明了相对较小的patch尺寸有利于微调性能然而这些较小 patch 的总体精度不如较大的高patch过大观测精度也会下降这可能是由于预测距离太大。 为验证这一猜想论文提出了 AvgDist 指标来进一步分析 masked patch size 和 mask ratio 对模型的影响这里AvgDist指标计算的是所有 masked patch 到最近的 visible patch 的平均欧式距离它综合了masked patch size和mask ratio对MIM任务的影响。 从下图可以看出AvgDist随着mask ratio的增加而增加对于较小的masked patch size其AvgDist在较大的mask ratio下依然较小而较大的masked patch size其AvgDist在较小的mask ratio下就比较大。 从右图可以看出AvgDist在[10, 20]区间内都可以取得较好的finetune效果这个可以用来指导选择不同masked patch size和mask ratio组合。 预测头 作者尝试了不同的 predictor head 一层线性层两层线性层反向 Swin-T 和 反向 Swin-B 简单的predictor反而具有更好的效果需要的参数少训练代价也小。 同时单层线性层和多层MLP具有相同效果说明在微调度量下单个线性层头显示出具有竞争力甚至是最优的传输性能。这表明如果我们的目标是学习好的特征进行微调那么在对比学习方法中重要的预测头设计在掩模图像建模可能是不必要的。 分析原因在于较强的预测能力并不一定意味着较好的下游性能。因为大部分的容量都浪费在了预测头上而预测头并不会被用于下游的任务。 MAE 也指出 decoder 的设计对 finetune 性能影响较小但是却会影响 linear probing 效果如果采用较轻的 decoder那么 encoder 的后面部分层就要承担一部分像素预测任务但这个却不是图像分类任务所需要的所以会带来 linear probing 的下降所以如果要想得到比较好的linear probing 效果就需要设计一个适当的 decode r以将预测任务集中在 decoder 上。 目标分辨率 大范围的分辨率例如1212-192192表现同样出色。性能仅在 6*6 的低分辨率下下降可能是因为此选项丢弃了太多信息。 预测目标 对比其它类型的targets比如像BEiT那样用dVAE将回归变成分类任务或者像IGPT那样采用color clustering。从下表的对比结果可以看到直接回归像素值并不比这些更复杂的设计差。 ℓ1、smooth-ℓ1 和 ℓ2 的三个损失 表现相似通过 颜色聚类 或 tokenization 仔细定义的类的性能比本文的稍差通过 channel-wise equal-sized 通道级的等大小的 bin作为替代选项提出的 简单颜色离散化方法与 ℓ1 损失具有竞争力但它需要仔细调整 bin 数量例如8-bin 同时对于损失计算范围也很重要。预测任务只在 masked 区域计算损失重建任务是在所有区域计算损失 。下表说明只在masked 区域计算损失即完成预测任务的结果较好。这也表明这两种任务在内部机制上有根本的不同。 比较实验 与基于 ViT 的不同模型比较 比较SimMIM与使用ViTB进行微调和线性探测的其他方法。SimMIM通过微调达到了83.8%的Top-1准确率比之前的最佳方法高出了0.6%。SimMIM由于其简单性保留了最高的训练效率比DINO、MoCo v3、ViT和BEiT(不包括dVAE训练前的时间)分别高出2.0×、1.8×、~ 4.0×和1.5×。 与不同大小的 Swin Transformer 比较 SimMIM在不同模型尺寸下的结果并与有监督的任务进行比较。在SimMIM预训练下所有的Swin-B、Swin-L、SwinV2-H的准确率都显著高于有监督的对照组。另外分辨率为512x512 的SwinV2-H模型在ImageNet-1K上的top-1精度达到了87.1%是仅使用ImageNet-1K数据的方法中精度最高的方法。 可视化结果 学习能力 下图分别表示原始图像随机 mask 及其预测结果mask 部分主体及其预测结果mask 所有主体及其预测结果。 结果表明随机 mask 可以很好恢复 mask 部分但其他部分会受到 mask 影响产生阴影mask 部分主体时虽然无法完全恢复但是能学习到主体的存在mask 全部主体时无法学习到主体存在会将该部分背景化。 这也说明 encoder 学习到的是对物体的推理能力而不是简单的从周围像素进行复制。 预测与重建对比 下图分别表示原始图像随机 mask 预测结果mask 区域计算 loss和重构结果所有区域计算 loss 。 图中看到的结果是重构结果更接近于原始图像与消融实验中表格统计的Acc表现不一致分析原可能是模型容量被浪费在恢复未掩码区域上这可能对微调下游任务用处不大。 mask patch size 大小 下图展示了固定 mask ratio 为 0.6 时具有不同 mask patch size 大小的图像的恢复。可以看出当 mask patch size 较小时可以更好地恢复细节该现象与消融实验中统计的 Acc 也相反。 说明mask patch size 较小时学习的表示迁移得更差。分析原因可能是使用较小的 mask patch size 预测任务可以通过附近的像素或纹理轻松完成并不利于 encoder 学习能力的训练从而影响下游任务。 结论 本文提出了一个简单而有效的自监督学习框架 SimMIM以利用 掩码图像建模 进行表示学习。该框架尽可能简单 具有中等大小的掩码 patch 大小的随机掩码策略通过直接回归任务预测RGB值的原始像素预测头可以像线性层一样轻。
http://www.hkea.cn/news/14518912/

相关文章:

  • 网页欢迎页面设计广告网站建设网站排名优化
  • 乌海网站建设公司网站栏目收录
  • 51个人网站广州网站建设电话咨询
  • 网站制作公司中企动力推荐定制网站建设公司价格
  • 邢台移动网站建设费用wordpress侧边栏在哪
  • 怎么做 在线电影网站苏州调查公司电话
  • 如何做一个网站的seo郑州网站建设 个人工作室
  • 自建网站的好处企业商城网站开发建设
  • 吴志国网站建设工作室网站域名到期登不上是怎么回事
  • 个人购物网站备案哪些网站平台可以做推广
  • 网站开发游戏开发门户设计方案
  • 给别人建设网站的注意事项架设网站多少钱
  • 墨西哥网站后缀鹤山网站建设易搜互联
  • 怎么在百度搜到自己的网站网站建设互联网推广
  • 潍坊做网站建设做网站推广广告
  • 营销型企业网站建设二手书网站策划书
  • 网站建设期末论文加盟网站分页怎么做seo
  • 飞沐网站建设wordpress 获取登录cookie
  • 西安手机网站制作公司深圳福田网站建设专业公司
  • 前端做数据表格的网站户外平台设计
  • 招聘网站开发价格没有网站怎么做淘客
  • 电影网站做淘客python网站开发流程图
  • 安徽池州做企业网站他达拉非和西地那非区别
  • 营销网站 需求说明柳江区城乡住房建设局网站
  • 荆门公司做网站深圳小程序开发费用
  • 金属建材企业网站建设方案网页制作平台
  • 国家重大建设项目库网站群晖 wordpress 域名
  • 重庆网站排名推广上海手机网站建设电话
  • 哈尔滨速成网站建设区域代理加盟项目
  • 湘潭建设网站公司展览展示设计必看网站