当前位置: 首页 > news >正文

建设网站的虚拟主机在哪里买百度关键词搜索量排行

建设网站的虚拟主机在哪里买,百度关键词搜索量排行,武汉网站设计武,wordpress android 下载Structure-Aware Transformer for Graph Representation Learning(ICML22) 摘要 Transformer 架构最近在图表示学习中受到越来越多的关注,因为它通过避免严格的结构归纳偏差而仅通过位置编码对图结构进行编码,自然地克服了图神经…

Structure-Aware Transformer for Graph Representation Learning(ICML22)

在这里插入图片描述

摘要

Transformer 架构最近在图表示学习中受到越来越多的关注,因为它通过避免严格的结构归纳偏差而仅通过位置编码对图结构进行编码,自然地克服了图神经网络(GNN)的一些限制。 在这里,我们表明由 Transformer 使用位置编码生成的节点表示不一定捕获它们之间的结构相似性。 为了解决这个问题,我们提出了 Structure-Aware Transformer,这是一类基于新的自注意力机制的简单而灵活的图形 Transformer。 这种新的自注意力通过在计算注意力之前提取以每个节点为根的子图表示,将结构信息合并到原始自注意力中。 我们提出了几种自动生成子图表示的方法,并从理论上证明所得到的表示至少与子图表示一样具有表现力。

介绍

Transformers (Vaswani et al., 2017),已被证明在自然语言理解 (Vaswani et al., 2017)、计算机视觉 (Dosovitskiy et al., 2020) 和生物序列建模 (Rives et al., 2020) 方面取得了成功。 2021),提供了解决这些问题的潜力。
Transformer 架构不仅仅在消息传递机制中聚合本地邻域信息,而是能够通过单个自注意力层捕获任何节点对之间的交互信息。 此外,与 GNN 相比,Transformer 避免在中间层引入任何结构归纳偏差,从而解决了 GNN 的表达能力限制。 相反,它将有关节点的结构或位置信息仅编码为输入节点特征,尽管限制了它可以从图结构中学习的信息量。 因此,将有关图结构的信息集成到 Transformer 架构中在图表示学习领域获得了越来越多的关注。 然而,大多数现有方法仅对节点之间的位置关系进行编码,而不是对结构关系进行显式编码。 因此,它们可能无法识别节点之间的结构相似性,并且可能无法对节点之间的结构交互进行建模。
在这里插入图片描述
上图中节点u,v的位置编码是相同的,因为这两个节点到相邻节点的最近距离都相同,可是他们的结构编码是不同的。

本文贡献

本文引入一种灵活的结构感知自注意力机制,该机制明确考虑图结构,从而捕获节点之间的结构交互。 由此产生的 Transformer 类,我们称之为结构感知 Transformer (SAT),可以提供图的结构感知表示,这与大多数现有的用于图结构数据的位置感知 Transformer 不同。

  1. 重新表述了 Vaswani 等人的自注意力机制。 (2017)作为内核平滑器,并通过提取以每个节点为中心的子图表示,扩展节点特征上的原始指数内核以也考虑局部结构。
  2. 提出了几种自动生成子图表示的方法,使生成的内核更平滑,能够同时捕获节点之间的结构和属性相似性。 理论上保证得到的表示至少与子图表示一样具有表达能力。

背景

在这里插入图片描述
输入交互图和用户和物品的嵌入表示X。

基于transformer的图

在这里插入图片描述
再经过残差链接和前馈网络
在这里插入图片描述

绝对编码
绝对编码是指在主Transformer模型之前,将图形的位置或结构表示添加或连接到输入节点特征,例如拉普拉斯位置编码(Dwivedi & Bresson,2021)或RWPE(Dwivedi等人,2022年)的报告。这些编码方法的主要缺点是,它们通常不提供节点与其邻域之间的结构相似性的度量

自注意作为核平滑

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

结构感知Transformer

1. 结构感知自注意力

采用上述的自注意作为核平滑,公式如下:
在这里插入图片描述
此处的注意力计算方式不再是单个节点的嵌入,而是这个节点构成的子图。
在这里插入图片描述
kgraph核函数是两个子图嵌入的点积,子图的抽取如下:

  1. k-subtree GNN extractor
    在这里插入图片描述

简而言之:将用户物品嵌入通过k层GNN最终获取节点u的嵌入,即时u的k-subtree(子图)

  1. k-subgraph GNN extractor
    在这里插入图片描述

简而言之:将节点u的所有邻居的k-subtree相加就是节点u的k-subgraph

结构感知Transformer

在这里插入图片描述

在这里插入图片描述

与绝对编码的组合

http://www.hkea.cn/news/555333/

相关文章:

  • 杭州哪个网站建设最好做网站的网络公司
  • 制作一个网站步骤东莞网络营销销售
  • 专业的营销网站建设公司百度联盟注册
  • 机械类网站用什么做背景指数运算法则
  • 微信如何绑定网站加速游戏流畅的软件
  • 茂名整站优化百度问答首页
  • 手机网站搭建网络宣传方式
  • 2003网站建设网站seo哪家公司好
  • 成都学校网站制作2022年国际十大新闻
  • 工厂外贸网站建设台州网络推广
  • 酒店网站建设方案策划百度seo怎么做网站内容优化
  • 网站更改公司需要重新备案吗搜索网页内容
  • 现在做网站还用dw做模板了吗成人电脑速成培训班
  • 做app要不要建网站刚开的店铺怎么做推广
  • 做生存分析的网站有哪些专业的网站优化公司
  • 网站双倍浮动百度联盟app
  • 北京网站设计确保代码符合w3c广州网络营销的推广
  • 做网站实名认证有什么用百度移动端模拟点击排名
  • 知更鸟wordpress 怎样沈阳百度seo关键词优化排名
  • 携程网站模板互联网营销策略有哪些
  • 做网站内链什么意思上海排名优化seobwyseo
  • 四川做直销会员网站百度网盘帐号登录入口
  • 做百度竞价对网站有无要求网站推广排名服务
  • 建设工程合同包括成都网站改版优化
  • 深圳不加班的互联网公司整站seo优化
  • 中国做的很好的食品网站肇庆疫情最新消息
  • 做时时彩网站微信seo关键词有话要多少钱
  • 陇南市建设局网站商务软文写作
  • 做学术研究的网站营销方案怎么写?
  • 专业网站设计公司有哪些秒收录关键词代发