当前位置: 首页 > news >正文

网站建设与优化推广方案如何建企业网站

网站建设与优化推广方案,如何建企业网站,烟台网站建设策划方案,做壁纸网站好看着父亲苍老的白发和渐渐老态的面容 希望时间再慢一些 —— 24.12.19 一、定义模型 1.初始化模型 ① 初始化父类 super(TorchModel, self).__init__()#xff1a; 调用父类 nn.Module 的初始化方法#xff0c;确保模型能够正确初始化。 ② 创建嵌入层 self.embedding n… 看着父亲苍老的白发和渐渐老态的面容 希望时间再慢一些                                                 —— 24.12.19 一、定义模型 1.初始化模型 ① 初始化父类 super(TorchModel, self).__init__() 调用父类 nn.Module 的初始化方法确保模型能够正确初始化。 ② 创建嵌入层 self.embedding nn.Embedding(len(vocab), vector_dim) 创建一个嵌入层将词汇表中的每个词映射到一个 vector_dim 维度的向量。 ③ 创建RNN层 self.rnn nn.RNN(vector_dim, vector_dim, batch_firstTrue) 创建一个 RNN 层输入和输出的特征维度均为 vector_dim并且输入数据的第一维是批量大小。 ④ 创建线性分类层 self.classify nn.Linear(vector_dim, sentence_length 1) 创建一个线性层将 RNN 输出的特征向量映射到 sentence_length 1 个分类标签。1 是因为可能有某个词不存在的情况此时的真实标签被设为 sentence_length。 ⑤ 定义损失函数 self.loss nn.functional.cross_entropy 定义交叉熵损失函数用于计算模型预测值与真实标签之间的差异。 class TorchModel(nn.Module):def __init__(self, vector_dim, sentence_length, vocab):super(TorchModel, self).__init__()self.embedding nn.Embedding(len(vocab), vector_dim) #embedding层# self.pool nn.AvgPool1d(sentence_length) #池化层#可以自行尝试切换使用rnnself.rnn nn.RNN(vector_dim, vector_dim, batch_firstTrue)# 1的原因是可能出现a不存在的情况那时的真实label在构造数据时设为了sentence_lengthself.classify nn.Linear(vector_dim, sentence_length 1)self.loss nn.functional.cross_entropy 2、前向传播定义 ① 输入嵌入 x self.embedding(x)将输入 x 通过嵌入层转换为向量表示 ② RNN处理 rnn_out, hidden self.rnn(x)将嵌入后的向量输入到RNN层得到每个时间步的输出 rnn_out 和最后一个时间步的隐藏状态 hidden。 ③ 提取特征 x rnn_out[:, -1, :]从RNN的输出中提取最后一个时间步(最后一维)的特征向量。 ④ 分类 y_pred self.classify(x)将提取的特征向量通过线性层进行分类得到预测值 y_pred。 ⑤ 损失计算 如果提供了真实标签 y则计算并返回损失值否则返回预测值。 #当输入真实标签返回loss值无真实标签返回预测值def forward(self, x, yNone):x self.embedding(x)#使用pooling的情况先使用pooling池化层会丢失模型语句的时序信息# x x.transpose(1, 2)# x self.pool(x)# x x.squeeze()#使用rnn的情况# rnn_out每个字对应的向量 hidden最后一个输出的隐含层对应的向量rnn_out, hidden self.rnn(x)# 中间维度改变变成(batch_size数据样本数量, sentence_length文本长度, vector_dim向量维度)x rnn_out[:, -1, :] #或者写hidden.squeeze()也是可以的因为rnn的hidden就是最后一个位置的输出#接线性层做分类y_pred self.classify(x)if y is not None:return self.loss(y_pred, y) #预测值和真实值计算损失else:return y_pred 二、数据 1.建立词表 ① 定义字符集 定义一个字符集 chars包含字母 a 到 k。 ② 定义字典 初始化一个字典 vocab其中键为 pad值为 0。 ③ 遍历字符集 使用 enumerate 遍历字符集 chars为每个字符分配一个唯一的序号从 1 开始。 ④ 定义unk键 添加一个特殊的键 unk其值为当前字典的长度即 26。 ⑤ 返回词汇表 将生成的词汇表返回 #字符集随便挑了一些字实际上还可以扩充 #为每个字生成一个标号 #{a:1, b:2, c:3...} #abc - [1,2,3] def build_vocab():chars abcdefghijk #字符集vocab {pad:0}for index, char in enumerate(chars):vocab[char] index1 #每个字对应一个序号vocab[unk] len(vocab) #26return vocab 2.随机生成样本 ① 采样 random.sample(list(vocab.keys()), sentence_length)从词汇表 vocab 的键中随机选择 sentence_length 个不同的字符生成列表 x ② 标签生成 index(a)检查列表 x 中是否包含字符 a如果包含记录 a 在列表中的索引位置为 y否则设置 y 为 sentence_length。 ③ 转换 将列表 x 中的每个字符转换为其在词汇表中的序号如果字符不在词汇表中则使用 unk 的序号 ④ 返回结果 返回转换后的列表 x 和标签 y #随机生成一个样本 def build_sample(vocab, sentence_length):#注意这里用sample是不放回的采样每个字母不会重复出现但是要求字符串长度要小于词表长度x random.sample(list(vocab.keys()), sentence_length)#指定哪些字出现时为正样本if a in x:y x.index(a)else:y sentence_lengthx [vocab.get(word, vocab[unk]) for word in x] #将字转换成序号为了做embeddingreturn x, y 3.建立数据集 ① 初始化数据集 创建两个空列表 dataset_x 和 dataset_y用于存储生成的样本和对应的标签 ② 生成样本 使用 for 循环循环次数为 sample_length即需要生成的样本数量。在每次循环中调用 build_sample 函数生成一个样本 (x, y)其中 x 是输入数据y 是标签 ③ 存储样本 将生成的样本 x 添加到 dataset_x 列表中。将生成的标签 y 添加到 dataset_y 列表中 ④ 返回数据集 将 dataset_x 和 dataset_y 转换为 torch.LongTensor 类型以便在 PyTorch 中使用。返回转换后的数据集。 #建立数据集 #输入需要的样本数量。需要多少生成多少 def build_dataset(sample_length, vocab, sentence_length):dataset_x []dataset_y []for i in range(sample_length):x, y build_sample(vocab, sentence_length)dataset_x.append(x)dataset_y.append(y)return torch.LongTensor(dataset_x), torch.LongTensor(dataset_y) 三、模型测试、训练、评估 1.建立模型 ① 参数 vocab词汇表通常是一个包含所有字符或单词的列表或字典 char_dim字符的维度即每个字符在嵌入层中的向量长度 sentence_length句子的最大长度 ② 过程 使用传入的参数 char_dim、sentence_length 和 vocab 实例化一个 TorchModel 对象并返回 #建立模型 def build_model(vocab, char_dim, sentence_length):model TorchModel(char_dim, sentence_length, vocab)return model 2.测试模型 ① 设置模型为评估模式 model.eval()将模型设置为评估模式禁用 dropout 等训练时的行为 ② 生成测试数据集 调用 build_dataset 函数生成 200 个用于测试的样本 ③ 打印样本数量 输出当前测试集中样本的数量 ④ 模型预测 使用 torch.no_grad() 禁用梯度计算提高推理速度并减少内存消耗然后对生成的测试数据进行预测 ⑤ 计算准确率 遍历预测结果和真实标签统计正确和错误的预测数量并计算准确率 ⑥ 输出结果 打印正确预测的数量和准确率并返回准确率 #测试代码 #用来测试每轮模型的准确率 def evaluate(model, vocab, sample_length):model.eval()x, y build_dataset(200, vocab, sample_length) #建立200个用于测试的样本print(本次预测集中共有%d个样本%(len(y)))correct, wrong 0, 0with torch.no_grad():y_pred model(x) #模型预测for y_p, y_t in zip(y_pred, y): #与真实标签进行对比if int(torch.argmax(y_p)) int(y_t):correct 1else:wrong 1print(正确预测个数%d, 正确率%f%(correct, correct/(correctwrong)))return correct/(correctwrong) 3.模型训练 ① 配置参数 设置训练轮数epoch_num、批量大小batch_size、训练样本数train_sample、字符维度char_dim、句子长度sentence_length和学习率learning_rate ② 建立字表 调用 build_vocab 函数生成字符到索引的映射。 ③ 建立模型 调用 build_model 函数创建模型。 ④ 选择优化器 torch.optim.Adam(model.parameters(), lrlearning_rate)使用 Adam 优化器 ⑤ 训练过程 model.train()模型进入训练模式。每个 epoch 中按批量生成训练数据计算损失反向传播并更新权重。记录每个 epoch 的平均损失。 ⑥ 评估模型 每个 epoch 结束后调用 evaluate 函数评估模型性能。 ⑦ 记录日志 记录每个 epoch 的准确率和平均损失。 ⑧ 绘制图表 绘制准确率和损失的变化曲线。 ⑨ 保存模型和词表 保存模型参数和词表 def main():#配置参数epoch_num 20 #训练轮数batch_size 40 #每次训练样本个数train_sample 1000 #每轮训练总共训练的样本总数char_dim 30 #每个字的维度sentence_length 10 #样本文本长度learning_rate 0.001 #学习率# 建立字表vocab build_vocab()# 建立模型model build_model(vocab, char_dim, sentence_length)# 选择优化器optim torch.optim.Adam(model.parameters(), lrlearning_rate)log []# 训练过程for epoch in range(epoch_num):model.train()watch_loss []for batch in range(int(train_sample / batch_size)):x, y build_dataset(batch_size, vocab, sentence_length) #构造一组训练样本optim.zero_grad() #梯度归零loss model(x, y) #计算lossloss.backward() #计算梯度optim.step() #更新权重watch_loss.append(loss.item())print(\n第%d轮平均loss:%f % (epoch 1, np.mean(watch_loss)))acc evaluate(model, vocab, sentence_length) #测试本轮模型结果log.append([acc, np.mean(watch_loss)])#画图plt.plot(range(len(log)), [l[0] for l in log], labelacc) #画acc曲线plt.plot(range(len(log)), [l[1] for l in log], labelloss) #画loss曲线plt.legend()plt.show()#保存模型torch.save(model.state_dict(), model.pth)# 保存词表writer open(vocab.json, w, encodingutf8)writer.write(json.dumps(vocab, ensure_asciiFalse, indent2))writer.close()return 四、模型预测 1.训练并保存模型 if __name__ __main__:main() 2.预测数据 用保存的训练好的模型进行预测 ① 初始化参数 设置每个字的维度 char_dim 和样本文本长度 sentence_length ② 加载字符表 从指定路径加载字符表 vocab ③ 建立模型 调用 build_model 函数构建模型 ④ 加载模型权重 从指定路径加载预训练的模型权重 ⑤ 序列化输入 将输入字符串转换为模型所需的输入格式 ⑥ 模型预测 将输入数据传递给模型进行预测 ⑦ 输出结果 打印每个输入字符串的预测类别和概率值 #使用训练好的模型做预测 def predict(model_path, vocab_path, input_strings):char_dim 30 # 每个字的维度sentence_length 10 # 样本文本长度vocab json.load(open(vocab_path, r, encodingutf8)) #加载字符表model build_model(vocab, char_dim, sentence_length) #建立模型model.load_state_dict(torch.load(model_path,weights_onlyTrue)) #加载训练好的权重x []for input_string in input_strings:x.append([vocab[char] for char in input_string]) #将输入序列化model.eval() #测试模式with torch.no_grad(): #不计算梯度result model.forward(torch.LongTensor(x)) #模型预测for i, input_string in enumerate(input_strings):print(输入%s, 预测类别%s, 概率值%s % (input_string, torch.argmax(result[i]), result[i])) #打印结果3.调用函数进行预测 if __name__ __main__:# main()test_strings [kijabcdefh, gijkbcdeaf, gkijadfbec, kijhdefacb]predict(model.pth, vocab.json, test_strings)
http://www.hkea.cn/news/14594431/

相关文章:

  • 百度网站建设微信封面wordpress 审核用户
  • dede5.7微电影网站模板铁路最好的5个专业学校
  • 企业网络推广网站建设广东哪家网站建
  • 二手房中介网站模板wordpress屏蔽f12
  • 常见的域名注册网站溧阳网站设计
  • 福建省效能建设网站前端培训学校
  • 网站建设的意义和作用企业网盘哪个最好用
  • vps 上传网站广告传媒公司名字
  • 大连建设工程信息网下载中心酒泉网站建设优化
  • 做网站业务的怎么寻找客户网站开发适配
  • 网站建设平台软件企业vi设计图片
  • 武功网站开发php网站开发设计论文
  • 电商网站详细设计网站建设 制作教程
  • 地方网站的建设北京工程信息网
  • 做外贸最好的网站有哪些深圳网站设计x
  • 旅游酒店网站建设域名一定要备案吗
  • 网站开发管理制度wordpress百度xml地图
  • 网站每年续费费用个人简历免费制作网站
  • 网站建设为什么要全款如何做好网站建设的要点
  • 网站建设公司小江龙岩天宫山天气预报
  • 做美工要开通什么网站的会员呢女性logo大全图片
  • 钓鱼网站的危害梅县区住房和城市建设局网站
  • 网站域名过期2022最近比较火的热点话题
  • hugo 怎么做网站网站设计中国内优秀企业网站欣赏
  • 个人网站优秀作品横沥镇网站仿做
  • 湖南3合1网站建设价格抖音代运营是怎么回事
  • 专业的公司网站建设产品单页设计图片
  • 百度搜索引擎的网址是北京seo技术
  • 做网站有名的公司有哪些ui设计属于视觉传达吗
  • 学做网站论坛好吗wordpress悬赏