当前位置: 首页 > news >正文

商城网站功能表免费二级网站

商城网站功能表,免费二级网站,WordPress文章添加灯箱,门户网站推广渠道简介 深层神经网络#xff08;Deep Neural Network#xff0c;DNN#xff09;是一种具有多个隐藏层的神经网络#xff0c;它可以用来解决复杂的模式识别和特征学习任务。深层神经网络在近年来的机器学习和人工智能领域中取得了重大突破#xff0c;如图像识别、自然语言处…简介 深层神经网络Deep Neural NetworkDNN是一种具有多个隐藏层的神经网络它可以用来解决复杂的模式识别和特征学习任务。深层神经网络在近年来的机器学习和人工智能领域中取得了重大突破如图像识别、自然语言处理、语音识别等。 重要概念 多隐藏层 深层神经网络具有多个隐藏层这些隐藏层可以用来提取不同层次的特征。每一层的神经元可以将前一层的输出作为输入并对数据进行更高级的抽象和特征学习。 特征学习 深层神经网络通过逐层的特征学习可以自动地从原始数据中提取出更加抽象和有意义的特征。每一层的权重和偏差都在训练过程中进行调整以便更好地捕捉数据中的模式和信息。 非线性激活函数 深层神经网络使用非线性的激活函数如ReLU、Sigmoid、Tanh等来引入非线性变换从而使网络能够处理更加复杂的关系和模式。 前向传播和反向传播 深层神经网络的训练过程包括前向传播和反向传播。前向传播用于计算预测值并计算损失函数而反向传播用于计算梯度并更新权重和偏差以减小损失函数。 优化算法 训练深层神经网络通常使用各种优化算法如梯度下降法、随机梯度下降法、Adam等。这些算法有助于寻找损失函数的最小值并使网络的性能逐渐提升。 过拟合问题 深层神经网络容易出现过拟合问题特别是在数据量较少的情况下。为了避免过拟合常常会采用正则化、Dropout等技术。 深度学习框架 为了便于搭建和训练深层神经网络许多深度学习框架如TensorFlow、PyTorch、Keras等被开发出来提供了丰富的工具和接口来支持深度神经网络的构建和训练。 代码实现 import numpy as np# Sigmoid 激活函数及其导数 def sigmoid(x):return 1 / (1 np.exp(-x))def sigmoid_derivative(x):return x * (1 - x)# 初始化参数 def initialize_parameters(layer_dims):parameters {}L len(layer_dims) # 层数for l in range(1, L):parameters[W str(l)] np.random.randn(layer_dims[l], layer_dims[l - 1]) * 0.01parameters[b str(l)] np.zeros((layer_dims[l], 1))return parameters# 前向传播 def forward_propagation(X, parameters):caches []A XL len(parameters) // 2 # 神经网络层数for l in range(1, L):Z np.dot(parameters[W str(l)], A) parameters[b str(l)]A sigmoid(Z)caches.append((Z, A))Z np.dot(parameters[W str(L)], A) parameters[b str(L)]AL sigmoid(Z)caches.append((Z, AL))return AL, caches# 计算损失 def compute_loss(AL, Y):m Y.shape[1]cost -np.sum(Y * np.log(AL) (1 - Y) * np.log(1 - AL)) / mreturn cost# 反向传播 def backward_propagation(AL, Y, caches):grads {}L len(caches)m AL.shape[1]Y Y.reshape(AL.shape)dAL - (np.divide(Y, AL) - np.divide(1 - Y, 1 - AL))current_cache caches[L - 1]dZL dAL * sigmoid_derivative(current_cache[1])grads[dW str(L)] np.dot(dZL, caches[L - 2][1].T) / mgrads[db str(L)] np.sum(dZL, axis1, keepdimsTrue) / mfor l in reversed(range(L - 1)):current_cache caches[l]dZ np.dot(parameters[W str(l 2)].T, dZL) * sigmoid_derivative(current_cache[1])grads[dW str(l 1)] np.dot(dZ, caches[l][1].T) / mgrads[db str(l 1)] np.sum(dZ, axis1, keepdimsTrue) / mdZL dZreturn grads# 更新参数 def update_parameters(parameters, grads, learning_rate):L len(parameters) // 2for l in range(L):parameters[W str(l 1)] - learning_rate * grads[dW str(l 1)]parameters[b str(l 1)] - learning_rate * grads[db str(l 1)]return parameters# 主函数 def deep_neural_network(X, Y, layer_dims, learning_rate, num_iterations):np.random.seed(42)parameters initialize_parameters(layer_dims)for i in range(num_iterations):AL, caches forward_propagation(X, parameters)cost compute_loss(AL, Y)grads backward_propagation(AL, Y, caches)parameters update_parameters(parameters, grads, learning_rate)if i % 100 0:print(fIteration {i}, Cost: {cost:.4f})return parameters# 示例数据 X np.array([[0, 0], [0, 1], [1, 0], [1, 1]]).T Y np.array([[0, 1, 1, 0]]).T# 定义网络结构和超参数 layer_dims [2, 4, 4, 1] # 输入层维度、隐藏层维度、输出层维度 learning_rate 0.1 num_iterations 10000# 训练深层神经网络 parameters deep_neural_network(X, Y, layer_dims, learning_rate, num_iterations)# 预测 predictions, _ forward_propagation(X, parameters) print(Predictions:, predictions)
http://www.hkea.cn/news/14264585/

相关文章:

  • 时尚网站设计案例软件开发商是什么意思
  • 我的网站突然找不到网页了亦庄网站建设公司
  • 兰州网站建设咨询薇做网站排名费用
  • 杨和网站设计制作合肥网站推广培训
  • 建设网站属于什么费用php 网站备份代码
  • 多域名指向同一网站长春网站制作教程
  • 网站游戏怎么制作秦皇岛网络推广公司
  • 线条类网站翻墙在线代理
  • 成都校园兼职网站建设网站如何调用数据库
  • 金华网站建设大型网页建设厦门电信网站备案
  • 网站布局方案搜索引擎优化培训
  • 济宁有没有专门做网站的网站开发只要
  • 杭州网站建设网网站后台怎么添加图片
  • 手机网站 微信链接怎么做郑州各区房价一览表
  • 上海门户网站建设公司wordpress采集规则
  • 智能logo设计网站龙岩网站设计价格
  • 长春建站的费用网站是用dreamer做的_为什么后台能进去前台进不去了
  • 搭建网站是什么下载微信公众号
  • 建设网站的功能地位如何做垂直网站
  • 网站建设数据库建设vi设计用什么软件做
  • 凉山建设局网站苏州网站建设招聘
  • 网站运营需要做什么网站功能与内容设计的步骤
  • 做的比较好的法律实务培训网站亚马逊品牌备案网站怎么做
  • 给公司做兼职维护网站多少钱电子商务和网站建设区别
  • 上海网站建设 找思创网络做汽车新闻哪个网站好
  • 网站关键词收费邯郸手机建站价格
  • 郑州酒店网站建设做h5页面的网站有哪些
  • 高陵县建设局网站公司管理类培训
  • 深圳网站建设好吗往公众号里放网站怎么做
  • 做静态网站需要成本吗聚美优品的电子商务网站建设论文