当前位置: 首页 > news >正文

中山网站建设公司排名wordpress文章段落背景颜色代码

中山网站建设公司排名,wordpress文章段落背景颜色代码,中国建设职业注册中心网站,seo关键词优化推广报价多少钱Abstract PointNet 是点云理解领域最有影响力的神经网络架构之一。虽然近期出现了 PointMLP 和 Point Transformer 等新型网络#xff0c;它们的精度已经大大超过了 PointNet#xff0c;但我们发现大部分性能提升是由于改进的训练策略#xff0c;例如数据增强和优化技术以及…Abstract PointNet 是点云理解领域最有影响力的神经网络架构之一。虽然近期出现了 PointMLP 和 Point Transformer 等新型网络它们的精度已经大大超过了 PointNet但我们发现大部分性能提升是由于改进的训练策略例如数据增强和优化技术以及增加的模型大小而不是由于架构创新。因此PointNet 的全部潜力尚未被充分发掘。在本研究中我们通过系统性的模型训练和缩放策略对经典的 PointNet 进行了重新审视并提出了两个主要贡献。首先我们提出了一组改进的训练策略显著提高了 PointNet 的性能。例如我们展示了在不改变架构的情况下PointNet 在 ScanObjectNN 对象分类任务上的整体准确率OA可以从 77.977.9 %77.9 提高到 86.186.1 %86.1甚至超过了最先进的 PointMLP。其次我们将倒置残差瓶颈设计和可分离 MLP 引入到 PointNet 中实现了高效和有效的模型缩放并提出了 PointNeXt即 PointNets 的下一版本。PointNeXt 可以灵活地进行扩展并在 3D 分类和分割任务上优于最先进的方法。在分类任务中PointNeXt 在 ScanObjectNN 上达到了 87.787.7 %87.7 的整体准确率比 PointMLP 高 2.32.3 %2.3并且推理速度是其 101010 倍。在语义分割任务中PointNeXt 在 S3DIS 上实现了新的最先进性能均值 IoU 达到 74.974.9 %74.96 折交叉验证优于最近的 Point Transformer。代码和模型可在 https://github.com/guochengqian/pointnext 上获取。 1 Introduction 近年来三维数据采集技术的进步导致点云理解领域兴起了一股热潮。随着 PointNet [29] 和 PointNet [30] 的兴起使用深度卷积神经网络处理未经结构化的点云数据成为了可能。在 “PointNets” 之后许多基于点云的网络被引入其中大部分专注于开发新的、精密的模块来提取局部结构如 KPConv 中的伪网格卷积 [43] 和 Point Transformer 中的自注意力层 [56]。这些新提出的方法在各种任务中都大幅优于 PointNet给人留下了 PointNet 架构过于简单、难以学习复杂的点云表示的印象。在本研究中我们重新审视了经典且广泛使用的 PointNet 网络并发现它的全部潜力尚未被充分发掘主要原因是 PointNet 时代缺少了两个因素1更优秀的训练策略和2有效的模型缩放策略。 通过对各种基准测试的全面实证研究例如用于对象分类的ScanObjecNN [44]和用于语义分割的S3DIS [1]我们发现训练策略即数据增强和优化技术在网络性能中起着重要作用。事实上现有最先进SOTA方法[46,43,56][46,43,56][46,43,56]相对于PointNet [30]的性能提升很大程度上是由于改进的训练策略不幸的是与体系结构的变化相比这些策略不太被人所知。例如训练过程中随机丢弃颜色可以意外地提高PointNet在S3DIS [1]上的测试性能5.95.9%5.9平均交并比mIoU如表5所示。此外采用标签平滑[39]可以将ScanObjectNN [44]的整体准确度OA提高1.31.3%1.3。这些发现激励我们重新审视PointNet并为其配备今天广泛使用的新高级训练策略。令人惊讶的是如图1所示仅利用改进的训练策略就将PointNet的OA在ScanObjectNN上提高了8.28.2%8.2从77.977.9%77.9提高到86.186.1%86.1在不引入任何架构更改的情况下建立了新的SOTA详见第4.4.1节。对于S3DIS分割基准测试通过6倍交叉验证在所有区域评估的mIoU可以增加13.613.6%13.6从54.554.5%54.5提高到68.168.1%68.1超越了许多在PointNet之后的现代架构例如PointCNN [22]和DeepGCN [21]。 图1训练策略和模型扩展对PointNet[30]的影响。我们展示了改进的训练策略数据增强和优化技术和模型扩展可以显著提高PointNet的性能。我们在ScanObjectNN [44]和S3DIS [1]上报告平均的整体精度和mIoU6倍交叉验证。 此外我们观察到目前用于点云分析的主流模型 [20,43,56][20,43,56][20,43,56] 比最初的 PointNets [29,30][29,30][29,30] 使用了更多的参数。有效地将 PointNet 从原来的小规模扩展到大规模是值得研究的一个主题因为更大的模型通常能够实现更丰富的表示并表现更好 [2,19,55][2,19,55][2,19,55]。然而我们发现在 PointNet 中简单地使用更多的构建块或增加通道大小只会导致延迟的增加而不会显著提高准确性请参见第 4.4.2 节。为了实现有效和高效的模型扩展我们将残差连接 [13]、反向瓶颈设计 [36] 和可分离的 MLPs [32] 引入到 PointNet 中。现代化的架构被命名为 PointNeXt是 PointNets 的下一个版本。PointNeXt 可以灵活扩展并在各种基准测试中优于 SOTA。正如图 1 所示PointNeXt 在 S3DIS [1] 6-fold 上将原始的 PointNet 提高了 20.420.4 %20.4 的 mIoU从 54.554.5 %54.5 提高到 74.974.9 %74.9并在 ScanObjecNN [44] 上实现了 9.89.8 %9.8 的 OA 增益超过了 SOTA 的 Point Transformer [56] 和 PointMLP [28]。我们接下来总结我们的贡献 我们首次对点云领域的训练策略进行了系统研究并表明仅仅采用改进的训练策略就能使PointNet在ScanObjectNN上的OA增加8.2%在S3DIS上的mIoU增加13.6%PointNet在这些任务上成功反击了。这些改进的训练策略具有普适性可以轻松应用于改进其他方法[29, 46, 28]。我们提出了PointNeXtPointNets的下一个版本。PointNeXt具有可扩展性超过了所有研究任务的SOTA包括对象分类[44, 49]语义分割[1, 5]和部分分割[53]同时在推理速度方面也优于SOTA。 2 Preliminary: A Review of PointNet 我们的PointNeXt是基于PointNet [30]构建的它使用了类似U-Net [35]的编码器和解码器结构如图2所示。编码器部分使用一系列集合抽象SA块以分层方式对点云特征进行抽象而解码器通过相同数量的特征传播块逐步插值抽象的特征。SA块包括一个下采样层以降采样输入点一个分组层以查询每个点的邻居一组共享的多层感知机MLPs以提取特征以及一个减少层以在邻居内聚合特征。分组层、MLPs和减少层的组合形式为 xil1Rj:(i,j)∈N{hΘ([xjl;pjl−pil])}(1)\mathbf{x}_i^{l1}\mathcal{R}_{j:(i, j) \in \mathcal{N}}\left\{h_{\boldsymbol{\Theta}}\left(\left[\mathbf{x}_j^l ; \mathbf{p}_j^l-\mathbf{p}_i^l\right]\right)\right\} \tag1 xil1​Rj:(i,j)∈N​{hΘ​([xjl​;pjl​−pil​])}(1) 其中R\mathcal{R}R 是缩减层例如最大池化层用于聚合点 iii 的邻居特征表示为 j:(i,j)∈N{j:(i, j) \in \mathcal{N}}j:(i,j)∈N。pil,xil,xjl\mathbf{p}_i^l, \mathbf{x}_i^l, \mathbf{x}j^lpil​,xil​,xjl 分别是网络第 lll 层中输入坐标、输入特征和邻居 jjj 的特征。hΘh{\Theta}hΘ 表示共享的 MLP将 xjl\mathbf{x}_j^lxjl​ 和相对坐标 (pjl−pil)\left(\mathbf{p}_j^l-\mathbf{p}_i^l\right)(pjl​−pil​) 的连接作为输入。需要注意的是由于使用单尺度分组的 PointNet 是原论文中使用的默认架构即每个阶段使用一个 SA 块因此我们在整个论文中都将其称为 PointNet 并将其用作我们的基线。 3 Methodology: From PointNet to PointNeXt 在本节中我们介绍了如何将经典架构PointNet[30]现代化为具有SOTA性能的下一代PointNetPointNeXt。我们的研究主要集中在两个方面1现代化的训练方法以改进数据增强和优化技术以及2现代化的架构以探究感受野的缩放和模型的缩放。这两个方面都对模型的性能有重要影响但以前的研究还没有很好地探讨这些问题。 3.1 Training Modernization: PointNet Strikes Back 我们进行了系统性研究量化了现代点云网络[46,43,56][46,43,56][46,43,56]使用的每种数据增强和优化技术的影响并提出了一组改进的训练策略。采用我们提出的训练策略可以揭示出 PointNet 的潜力。 3.1.1 Data Augmentation 数据增强是提高神经网络性能的最重要策略之一因此我们从那里开始进行现代化。原始的PointNet 在各种基准测试中使用了随机旋转、缩放、平移和抖动的简单数据增强组合[30]。近期的方法采用比PointNet中使用的更强的增强策略。例如KPConv [43] 在训练期间随机丢弃颜色Point-BERT [54] 使用常见的点重采样策略从原始点云中随机采样1024个点进行数据缩放而RandLA-Net [15]和Point Transformer [56]在分割任务中将整个场景作为输入。在本文中我们通过添加性研究量化了每种数据增强的效果。 我们从PointNet [30]作为基线开始我们的研究该基线使用原始的数据增强和优化技术进行训练。我们逐个移除每个数据增强以检查其是否必要。我们添加回有用的增强但移除不必要的增强。然后我们系统地研究了代表性工作 [46, 43, 32, 56, 28, 54] 中使用的所有数据增强包括数据缩放如点重采样[54]和将整个场景加载为输入[15]随机旋转、随机缩放、平移以移动点云、抖动以为每个点添加独立噪声、高度附加[43]即将沿物体重力方向的每个点的测量附加为附加输入特征、自动对比度调整颜色对比度[56]和颜色随机丢弃将颜色随机替换为零值。我们逐步验证数据增强的有效性并仅保留提供更好验证准确性的增强。在此研究的结尾我们提供了每个任务的数据增强集合以实现模型性能的最大提升。第4.4.1节详细介绍和分析了发现的结果。 3.1.2 Optimization Techniques 优化技术包括损失函数、优化器、学习率调度器和超参数对神经网络的性能也至关重要。 PointNet 在其实验中使用相同的优化技术CrossEntropy 损失函数Adam 优化器 [16]指数学习率衰减Step Decay和相同的超参数。由于机器学习理论的发展现代神经网络可以使用理论上更好的优化器例如AdamW [27] v s Adam [16]和更高级的损失函数具有标签平滑的CrossEntropy [39]。类似于我们对数据增强的研究我们还量化了每种现代优化技术对 PointNet 的影响。我们首先对学习率和权重衰减进行顺序超参数搜索。然后我们对标签平滑、优化器和学习率调度器进行了逐步研究。我们发现了一组改进的优化技术进一步提高了性能。总的来说带有标签平滑的CrossEntropy、AdamW和Cosine Decay可以在各种任务中相对优化模型的表现。有关详细结果请参见第4.4.1节。 图2PointNeXt架构。PointNeXt与PointNet [30]共享相同的Set Abstraction和Feature Propagation块同时在开头添加了一个额外的MLP层并使用提出的倒置残差MLPInvResMLP块来扩展架构。 3.2 Architecture Modernization: Small Modifications → Big Improvement 在这个小节中我们将 PointNet [30] 现代化成提出的 PointNeXt。这个现代化包含两个方面1感受野尺度的缩放和2模型尺度的缩放。 3.2.1 Receptive Field Scaling 在神经网络设计空间中感受野是一个重要的因素[38,7]。在点云处理中至少有两种方法可以扩大感受野1采用更大的半径来查询邻域和2采用分层结构。由于分层结构已经被原始的PointNet采用因此我们主要在本小节中研究1。需要注意的是PointNet的半径设置为一个初始值rrr当点云下采样时翻倍。我们在每个基准测试中研究不同的初始值发现半径是特定于数据集的对性能有重大影响。这将在4.4.2节中详细阐述。 此外我们发现方程1中的相对坐标Δppjl−pil\Delta_p \mathbf{p}_j^l-\mathbf{p}_i^lΔp​pjl​−pil​使网络优化更加困难导致性能下降。因此我们提出相对位置归一化Δp\Delta_pΔp​ 归一化将相对位置除以邻域查询半径 xil1Rj:(i,j)∈N{hΘ([xjl;(pjl−pil)/rl])}.(2)\mathbf{x}_i^{l1}\mathcal{R}_{j:(i, j) \in \mathcal{N}}\left\{h_{\boldsymbol{\Theta}}\left(\left[\mathbf{x}_j^l ;\left(\mathbf{p}_j^l-\mathbf{p}_i^l\right) / r^l\right]\right)\right\} . \tag2 xil1​Rj:(i,j)∈N​{hΘ​([xjl​;(pjl​−pil​)/rl])}.(2) 没有归一化时相对位置的值Δppjl−pil\Delta_p\mathbf{p}_j^l-\mathbf{p}_i^lΔp​pjl​−pil​非常小小于半径需要网络学习更大的权重来应用于 Δp\Delta_pΔp​。这使得优化变得非常困难特别是由于使用了权重衰减以减少网络的权重因此容易忽略相对位置的影响。所提出的归一化通过重新缩放来减轻了这个问题并同时减少了不同阶段 Δp\Delta_pΔp​ 的方差。 3.2.2 Model Scaling PointNet 是一个相对较小的网络在分类结构中编码器仅由 2 个阶段组成而在分割中为 4 个阶段。每个阶段仅包含 1 个 SA 块每个块包含 3 层 MLP。PointNet 的模型大小用于分类和分割都小于 222M这与通常使用超过 101010M 参数的现代网络相比要小得多。有趣的是我们发现即使附加更多的 SA 块或使用更多的通道也不会导致明显的精度提高而会导致吞吐量显著下降请参见第 4.4.2 节主要原因是梯度消失和过拟合。因此在本小节中我们研究如何有效且高效地扩展 PointNet。 我们提出了反向残差多层感知机InvResMLP块以实现有效和高效的模型扩展。在每个阶段的第一个SA块之后追加InvResMLP块其结构如图2中间下方所示。InvResMLP与SA之间有三个不同之处。 1添加了输入和输出之间的残差连接以减轻梯度消失问题[13]特别是当网络更深时。 2引入可分离的MLP以减少计算量并增强点特征提取。尽管原始SA块中的所有3个MLP层都是在邻域特征上计算的InvResMLP将MLP分成一层计算邻域特征在分组和缩减层之间和两层计算点特征在缩减层之后受MobileNet [14]和ASSANet [32]启发。 3利用倒置瓶颈设计[36]将第二个MLP的输出通道扩展4倍以丰富特征提取。追加InvResMLP块被证明可以显着提高性能相比追加原始SA块而言请参见第4.4.2节。 此外我们在宏观架构上提出了三个变化。 (1) 我们统一了 PointNet 分类和分割编码器的设计即将分类的 SA 块数量从 2 扩展到 4同时在每个阶段保持原始数量 (4 个块) 用于分割。 (2) 我们使用对称解码器其通道大小改变以匹配编码器。 (3) 我们添加了一个 stem MLP即一个额外的 MLP 层插入到架构的开头将输入点云映射到更高的维度。 总之我们提出了 PointNeXt这是 PointNets [29,52][29,52][29,52] 的下一个版本通过结合所提出的 InvResMLP 和上述的宏体系结构更改从 PointNet 进行修改。PointNeXt 的体系结构如图 2 所示。我们将 stem MLP 的通道大小表示为 CCCInvResMLP 块的数量表示为 BBB。更大的 CCC 导致网络的宽度增加即宽度扩展而更大的 BBB 导致网络的深度增加即深度扩展。当 B0B0B0 时在每个阶段仅使用一个 SA 块和没有 InvResMLP 块。SA 块中 MLP 层数为 2每个 SA 块内部添加一个残差连接。当 B≠0B \neq 0B0 时在原始 SA 块后添加 InvResMLP 块。在这种情况下SA 块中 MLP 层数设置为 1 以节省计算成本。我们的 PointNeXt 系列的配置如下所述 PointNeXt-S: C32,B0C32, B0C32,B0PointNeXt-L: C32,B(2,4,2,2)C32, B(2,4,2,2)C32,B(2,4,2,2)PointNeXt-B: C32,B(1,2,1,1)C32, B(1,2,1,1)C32,B(1,2,1,1)PointNeXt-XL: C64,B(3,6,3,3)C64, B(3,6,3,3)C64,B(3,6,3,3) 5 Related Work 点云方法直接使用点云的无结构格式进行处理相比于基于体素的方法[10, 4]和基于多视图的方法[37, 12, 9]。点云网络(PointNet) [29] 是点云方法的先驱工作通过限制特征提取为逐点方式使用共享的MLP模型来建模点的置换不变性。点云网络(PointNet) [30] 的出现旨在提高PointNet的性能以捕捉局部几何结构。目前大多数基于点云的方法都专注于局部模块的设计。[46、45、31]采用图神经网络[51、22、43、42]将点云投影到伪网格上以允许进行规则卷积[48、23、24]通过局部结构确定的权重自适应地聚合邻域特征。此外最近的一些方法通过类似于Transformer的网络[56,17][56,17][56,17]利用自注意力来提取局部信息。我们的工作不追随这种局部模块设计的趋势。相反我们将注意力转移到另一个重要但鲜为人知的方面即训练和扩展策略。 最近对于图像分类领域的训练策略已经得到了研究[2,47,26][2,47,26][2,47,26]。在点云领域SimpleView [9]是第一篇展示训练策略对神经网络性能有重要影响的工作。然而SimpleView仅仅采用了与DGCNN [46]相同的训练策略。相反我们进行了系统研究以量化每种数据增强和优化技术的影响并提出了一组改进的训练策略可以提高PointNet [30]和其他代表性工作[29,46,28][29,46,28][29,46,28]的性能。 模型扩展能够显著提高网络性能这在各个领域的开创性工作中得到了证明[40,55,21][40,55,21][40,55,21]。与使用少于222M参数的PointNet[30][30][30]相比大多数当前流行的网络的参数超过了101010M例如KPConv[43][43][43](15M)和PointMLP[28][28][28](13M)。在我们的工作中我们探索了一些有效且高效的PointNet模型扩展策略。我们提供了实际建议即使用残差连接和反向瓶颈设计来提高性能同时使用可分离MLP来保持吞吐量。 6 Conclusion and Discussion 本文展示了通过改进训练和模型缩放策略PointNet的性能可以提高到超过当前的最新技术。具体而言我们量化了每种数据增强和优化技术的效果并提出了一组改进的训练策略。这些策略可以轻松应用于提高PointNet和其他代表性作品的性能。我们还将反向残差MLP块引入PointNet中以开发PointNeXt。我们展示了PointNeXt在各种基准测试中具有卓越的性能和可伸缩性同时保持高吞吐量。本研究旨在引导研究人员更加关注训练和缩放策略的影响并激励未来的研究朝这个方向发展。 Limitation. 虽然PointNeXt-XL是所有代表性基于点的网络[30、43、15、56]中最大的之一但它的参数数量44M仍然低于图像分类中的小型网络例如Swin-S [25]50M、ConNeXt-S [26]50M和ViT-B [8]87M并且远远低于它们的大型变体包括Swin-L197M、ConvNeXt-XL350M和ViT-L305M。在这项工作中我们没有进一步推动模型大小主要是因为与更大的图像数据集如ImageNet [6]相比点云数据集具有更小的规模。此外由于重点不在引入新的架构变化上因此我们的工作受到现有模块的限制。 论文链接https://arxiv.org/pdf/2206.04670.pdf
http://www.hkea.cn/news/14517442/

相关文章:

  • 打开网址资料网站国外用的网站
  • 网站建设哪里好翰诺科技咖啡厅网站开发目标
  • 网站制作公司的流程网页游戏新游戏
  • 建站行业的利润济南做网站企业
  • 优化网站找哪家做物流网站模块
  • 有关网站建设的毕业设计网站的技术建设方案
  • wordpress菜单显示选项打不开wordpress优化数据
  • 校园网网站建设费用企业网络安全
  • 高校门户网站开发网站优化北京seo
  • 企业网站前端建设汕头快速优化排名
  • 电商网站设计教程深圳一百讯网站建设
  • 网站后台管理系统后缀长春网易网站建设
  • 如何制作一个手机网站源码上海鸿鹄设计公司
  • 高端网站建设公司成都年前做网站的好处
  • 建设银行短信带网站平昌移动网站建设
  • 网站浏览构思WordPress 百度联盟优化主题
  • o2o平台有哪些网站建设上线网站
  • 深圳建设银行分行网站lumen wordpress 下载
  • 网站建设教程 乐视网网站怎么做下载链接
  • 郑州网站seo排名sharepoint 网站开发
  • 企业3合1网站建设价格wordpress模板格式
  • 网站建设服务合同协议信宜做网站设置
  • 电子商务学网站建设好吗金融投资网站
  • 咋样着做自己的网站专业互联网软件开发
  • 重庆高铁建设网站优秀作文网站推荐
  • 网站设计应该遵循的原则北京代理记账公司
  • 制作网站的公司做网站去哪里找网站排名优化策划
  • 公司网站建设费用wordpress 恢复初始
  • 镇江外贸型网站建设中铁建设集团招标网站
  • wordpress托管建站快站的优惠券怎么发布的