当前位置: 首页 > news >正文

做类图的网站51zwd一起做网站

做类图的网站,51zwd一起做网站,音乐网站开发技术人员配置,wordpress后台目录无法访问LeNet-5 是经典卷积神经网络之一#xff0c;1998 年由 Yann LeCun 等人在论文 《Gradient-Based Learning Applied to Document Recognition》中提出。LeNet-5 网络使用了卷积层、池化层和全连接层#xff0c;实现可以应用于手写体识别的卷积神经网络。TensorFlow 内置了 MNI… LeNet-5 是经典卷积神经网络之一1998 年由 Yann LeCun 等人在论文 《Gradient-Based Learning Applied to Document Recognition》中提出。LeNet-5 网络使用了卷积层、池化层和全连接层实现可以应用于手写体识别的卷积神经网络。TensorFlow 内置了 MNIST 手写体数据集可以很方便地读取数据集并应用于后续的模型训练过程中。本文主要记录了如何使用 TensorFlow 2.0 实现 MNIST 手写体识别模型。 目录 1 数据集准备 2 模型建立 3 模型训练 1 数据集准备 TensorFlow 内置了 MNIST 手写体数据集安装 TensorFlow 之后使用如下代码就可以加载 MNIST 数据集 import tensorflow as tfmnist tf.keras.datasets.mnist (train_x, train_y), (test_x, test_y) mnist.load_data() 使用 Matplotlib 查看前 25 张图片并打印对应的标签。 from matplotlib import pyplot as plt# 查看训练集 plt.figure(figsize(3,3)) for i in range(25):plt.subplot(5,5,i1)plt.imshow(train_x[i], cmapplt.cm.binary)plt.xticks([])plt.yticks([]) plt.show() 接着使用 tf.one_hot() 函数对图像的标签进行独热码编码。 # 预处理 train_y tf.one_hot(train_y, depth10) test_y tf.one_hot(test_y, depth10) 2 模型建立 MNIST 手写体数据集中每张图像的大小是 28 × 28 × 1按照 LeNet-5 模型的思路构建卷积神经网络模型。选择 5 × 5 的卷积核卷积层之后是 2 × 2 的平均池化激活函数选择 sigmoid除了最后一层。 # the first layer can receive an input_shape argument model tf.keras.models.Sequential([tf.keras.layers.Conv2D(filters6,kernel_size5,paddingvalid,activationsigmoid,input_shape(28,28,1)),tf.keras.layers.AveragePooling2D(pool_size(2,2),strides2,paddingvalid),tf.keras.layers.Conv2D(filters16,kernel_size5,paddingvalid,activationsigmoid),tf.keras.layers.AveragePooling2D(pool_size(2,2),strides2,paddingvalid),tf.keras.layers.Flatten(),tf.keras.layers.Dense(120,activationsigmoid),tf.keras.layers.Dense(84,activationsigmoid),tf.keras.layers.Dense(10,activationsoftmax) ]) 使用 model.summary() 查看模型信息。 model.summary() Model: sequential _________________________________________________________________  Layer (type)                Output Shape              Param #     conv2d (Conv2D)             (None, 24, 24, 6)         156                                                                           average_pooling2d (AverageP  (None, 12, 12, 6)        0           ooling2D)                                                                                                                           conv2d_1 (Conv2D)           (None, 8, 8, 16)          2416                                                                          average_pooling2d_1 (Averag  (None, 4, 4, 16)         0           ePooling2D)                                                                                                                         flatten (Flatten)           (None, 256)               0                                                                             dense (Dense)               (None, 120)               30840                                                                         dense_1 (Dense)             (None, 84)                10164                                                                         dense_2 (Dense)             (None, 10)                850                                                                          Total params: 44,426 Trainable params: 44,426 Non-trainable params: 0 _________________________________________________________________ 3 模型训练 使用 compile() 函数配置模型优化算法为 Adam 算法学习率为 0.001损失函数为交叉熵损失函数。 # 模型配置 model.compile(optimizertf.keras.optimizer.Adam(learning_rate1e-3),losstf.keras.losses.CategoricalCrossentropy(),metrics[accuracy] )# 模型训练 model.fit(xtrain_x,ytrain_y,validation_split0.0,epochs10 ) Epoch 1/10 1875/1875 [] - 72s 38ms/step - loss: 0.5806 - accuracy: 0.8206 Epoch 2/10 1875/1875 [] - 70s 37ms/step - loss: 0.1254 - accuracy: 0.9620 Epoch 3/10 1875/1875 [] - 75s 40ms/step - loss: 0.0870 - accuracy: 0.9735 Epoch 4/10 1875/1875 [] - 82s 43ms/step - loss: 0.0699 - accuracy: 0.9785 Epoch 5/10 1875/1875 [] - 69s 37ms/step - loss: 0.0604 - accuracy: 0.9809 Epoch 6/10 1875/1875 [] - 68s 36ms/step - loss: 0.0530 - accuracy: 0.9833 Epoch 7/10 1875/1875 [] - 72s 38ms/step - loss: 0.0477 - accuracy: 0.9854 Epoch 8/10 1875/1875 [] - 70s 38ms/step - loss: 0.0436 - accuracy: 0.9863 Epoch 9/10 1875/1875 [] - 70s 37ms/step - loss: 0.0399 - accuracy: 0.9873 Epoch 10/10 1875/1875 [] - 68s 36ms/step - loss: 0.0357 - accuracy: 0.9883 keras.callbacks.History at 0x20a56b65660
http://www.hkea.cn/news/14563975/

相关文章:

  • 樟树有哪几个网站做爆药库注册了域名怎么做网站
  • 学习制作网页的网站移动端布局
  • 如何做彩票网站网站翻新后seo怎么做
  • 有关做聚合物电池公司的网站餐饮管理系统设计
  • 济南手机网站建设电话适合html初学者做的网站
  • 重庆福彩建站网站上文章加入音乐是怎么做的
  • 网站改版 被百度k徐州市建设局网站电话号码
  • 公众号网站开发整合营销方案怎么写
  • 网站备案核验系统wordpress显示空白
  • 李氏牛仔网站建设风格广州做公司网站
  • 东莞哪里有做企业网站的网站建设的软件
  • iis 配置网站详解中国建设招标网站首页
  • 深圳网站建设_请到中投网络三亚西岛
  • 成都网站模板购买吉林响应式网站建设
  • 晋江市住房与城乡建设局网站六安网站开发
  • Dw怎么做网站往里面加标题和字福安市住房和城乡建设网站
  • 首饰设计网站推荐北京建设教育协会网站
  • 厦门公司建站电子工程师证怎么考
  • 企业建设网站策划案网站营销平台
  • 怎么在国外建网站建一个公司需要多少钱?
  • 做网站架构图wordpress哪个seo工具好
  • 网站目录怎么做外链什么叫电商怎么做电商
  • 百度能搜到自己的网站网站建设运营维护方案
  • 网站被挂黑后果建筑工程网目密度
  • 网站建设哪家公司便宜wordpress主题框架开发
  • 网站推广有哪些方法建设部或国土资源管理局的网站
  • 郑州网站建设 云极聚名网下载
  • 大连开发区网站设计公司wordpress付费阅读全文
  • react做的网站2022年网页游戏排行榜
  • 自己做的视频发什么网站吗三生团队网站找谁做的