当前位置: 首页 > news >正文

宁波网站排名公司百度点击排名收费软件

宁波网站排名公司,百度点击排名收费软件,与建设部网站,如何设计自己网站主要组成部分#xff1a; 1. 定义注意力层#xff1a; 定义一个Attention_Layer类#xff0c;接受两个参数#xff1a;hidden_dim#xff08;隐藏层维度#xff09;和is_bi_rnn#xff08;是否是双向RNN#xff09;。 2. 定义前向传播#xff1a; 定义了注意力层的…主要组成部分 1. 定义注意力层 定义一个Attention_Layer类接受两个参数hidden_dim隐藏层维度和is_bi_rnn是否是双向RNN。 2. 定义前向传播 定义了注意力层的前向传播过程包括计算注意力权重和输出。 3. 数据准备 生成一个随机的数据集包含3个句子每个句子10个词每个词128个特征。 4. 实例化注意力层 实例化一个注意力层接受两个参数hidden_dim隐藏层维度和is_bi_rnn是否是双向RNN。 5. 前向传播 将数据传递给注意力层的前向传播方法。 6. 分析结果 获取第一个句子的注意力权重。 7. 可视化注意力权重 使用matplotlib库可视化了注意力权重。 **主要函数和类** Attention_Layer类定义了注意力层的结构和前向传播过程。 forward方法定义了注意力层的前向传播过程。 torch.from_numpy函数将numpy数组转换为PyTorch张量。 matplotlib库用于可视化注意力权重。import torch import torch.nn as nn import torch.nn.functional as F import numpy as np import matplotlib.pyplot as plt# 定义注意力层 class Attention_Layer(nn.Module):def __init__(self, hidden_dim, is_bi_rnn):super(Attention_Layer,self).__init__()self.hidden_dim hidden_dimself.is_bi_rnn is_bi_rnnif is_bi_rnn:self.Q_linear nn.Linear(hidden_dim * 2, hidden_dim * 2, bias False)self.K_linear nn.Linear(hidden_dim * 2, hidden_dim * 2, bias False)self.V_linear nn.Linear(hidden_dim * 2, hidden_dim * 2, bias False)else:self.Q_linear nn.Linear(hidden_dim, hidden_dim, bias False)self.K_linear nn.Linear(hidden_dim, hidden_dim, bias False)self.V_linear nn.Linear(hidden_dim, hidden_dim, bias False)def forward(self, inputs, lens):# 获取输入的大小size inputs.size()Q self.Q_linear(inputs) K self.K_linear(inputs).permute(0, 2, 1)V self.V_linear(inputs)max_len max(lens)sentence_lengths torch.Tensor(lens)mask torch.arange(sentence_lengths.max().item())[None, :] sentence_lengths[:, None]mask mask.unsqueeze(dim 1)mask mask.expand(size[0], max_len, max_len)padding_num torch.ones_like(mask)padding_num -2**31 * padding_num.float()alpha torch.matmul(Q, K)alpha torch.where(mask, alpha, padding_num)alpha F.softmax(alpha, dim 2)out torch.matmul(alpha, V)return out# 准备数据 data np.random.rand(3, 10, 128) # 3个句子每个句子10个词每个词128个特征 lens [7, 10, 4] # 每个句子的长度# 实例化注意力层 hidden_dim 64 is_bi_rnn True att_L Attention_Layer(hidden_dim, is_bi_rnn)# 前向传播 att_out att_L(torch.from_numpy(data).float(), lens)# 分析结果 attention_weights att_out[0, :, :].detach().numpy() # 获取第一个句子的注意力权重# 可视化注意力权重 plt.imshow(attention_weights, cmaphot, interpolationnearest) plt.colorbar() plt.show()
http://www.hkea.cn/news/14335282/

相关文章:

  • 不备案如何架设网站成都外包公司有哪些
  • 舟山市住房城乡建设局网站我要用新浪云做网站
  • 网站建设如何空间绑定域名阿里云怎么建网站
  • 服装网站建设开题报告网站后台使用
  • 手机wap网站模板 带后台莱芜网站制作公司
  • 九江哪里做网站建标库官网入口
  • 大学生兼职网站开发毕设论文东莞网页开发
  • 网站维护收费广东网站开发收费
  • 网站的特征包括大连网站开发培训价格
  • 湛江网站搜索引擎推广海门工程造价信息网
  • 合肥网站制作建设公司广州注册公司全包
  • 自己怎么做单页网站台州市城乡建设局网站
  • 演出公司网站建设石河子建设局网站
  • 做网站的颜色搭配网站创建公司哪家好
  • 网站空间报价单湖北网站建设联系电话
  • 网站建设第一步怎么弄做网站开发需要什么技能
  • 网站内做动图旅游网站论文
  • 制作销售网站有哪些中国十大小说网站排名
  • 灯饰外贸网站建设玩偶网站最终目的
  • ai免费模板网站网络平台维护是什么工作
  • 郑州网站推广方式杭州建模培训
  • 自己建网站做代理商鞍山天乙网络推广有限公司
  • 网站手机端页面怎么做的平面设计一个月多少工资
  • 网站检测报告哪里做网站设计制做报价
  • 汕头快速优化排名网站制作优化
  • 宏福建设工程有限公司网站英雄联盟最新赛事
  • 建设校园网站意义小说网站建设多少钱
  • 推荐邵阳网站建设百度云wordpress怎么搭建网站
  • 县级门户网站建设的报告中端网站建设公司
  • 公司网站建设费用包括哪些慈溪网站建设哪家好