自己的公网ip可以做网站,清河网站建设公司,网站开发亿玛酷给力5,皖icp备 网站建设文章目录 1、什么是神经网络2、人工神经网络3、多层感知器3.1、输入层3.2、隐藏层3.2.1、隐藏层 13.2.2、隐藏层 2 3.3、输出层3.4、前向传播3.4.1、加权和⭐3.4.2、激活函数 3.5、反向传播3.5.1、计算梯度3.5.2、更新权重和偏置 4、小结 #x1f343;作者介绍#xff1a;双非… 文章目录 1、什么是神经网络2、人工神经网络3、多层感知器3.1、输入层3.2、隐藏层3.2.1、隐藏层 13.2.2、隐藏层 2 3.3、输出层3.4、前向传播3.4.1、加权和⭐3.4.2、激活函数 3.5、反向传播3.5.1、计算梯度3.5.2、更新权重和偏置 4、小结 作者介绍双非本科大三网络工程专业在读阿里云专家博主专注于Java领域学习擅长web应用开发、数据结构和算法初步涉猎人工智能和前端开发。 个人主页逐梦苍穹 所属专栏人工智能 gitee地址xzl的人工智能代码仓库 ✈ 您的一键三连是我创作的最大动力 1、什么是神经网络
人工神经网络 Artificial Neural Network 简写为ANN也简称为神经网络NN是一种模仿生物神经网络结构和功能的计算模型。 人脑可以看做是一个生物神经网络由众多的神经元连接而成。 各个神经元传递复杂的电信号树突接收到输入信号然后对信号进行处理通过轴突输出信号。 下图是生物神经元示意图 当电信号通过树突进入到细胞核时会逐渐聚集电荷。达到一定的电位后细胞就会被激活通过轴突发出电信号。
2、人工神经网络
那怎么构建人工神经网络中的神经元呢 这个流程就像来源不同树突(树突都会有不同的权重)的信息进行的加权计算输入到细胞中做加和再通过激活函数输出细胞值。 接下来我们使用多个神经元来构建神经网络相邻层之间的神经元相互连接并给每一个连接分配一个强度如下图所示 神经网络中信息只向一个方向移动即从输入节点向前移动通过隐藏节点再向输出节点移动。 其中的基本部分是:
输入层即输入 x 的那一层输出层即输出 y 的那一层隐藏层输入层和输出层之间都是隐藏层
特点是 同一层的神经元之间没有连接第 N 层的每个神经元和第 N-1层 的所有神经元相连这就是full connected的含义)第N-1层神经元的输出就是第N层神经元的输入每个连接都有一个权值 3、多层感知器
详解上文提到的多层感知器 多层感知器 (Multilayer Perceptron, MLP) 结构 3.1、输入层 输入层 Input Layer 输入特征 (Input Features) ( x 1 , x 2 , x 3 ) ( x_1, x_2, x_3 ) (x1,x2,x3)
输入层的神经元数量等于输入特征的数量。在这个例子中有三个输入特征 ( x 1 , x 2 , x 3 ) ( x_1, x_2, x_3 ) (x1,x2,x3)输入特征可以来自数据集中的一个样本
3.2、隐藏层 隐藏层Hidden Layers 3.2.1、隐藏层 1
这是网络中的第一个隐藏层包含多个神经元。每个神经元接收来自输入层的加权输入。每个连接线条代表一个权重 ( w ) ( w ) (w)这些权重在训练过程中会被调整。隐藏层神经元通过激活函数例如 ReLU、Sigmoid 等生成输出。
3.2.2、隐藏层 2
这是网络中的第二个隐藏层包含多个神经元。每个神经元接收来自隐藏层 1 的加权输入。这些输入经过加权求和并通过激活函数生成输出。
3.3、输出层 输出层Output Layer 输出 (Outputs) ( y 1 , y 2 ) ( y_1, y_2 ) (y1,y2)
输出层的神经元数量等于预测目标的数量。在这个例子中有两个输出 ( y 1 , y 2 ) ( y_1, y_2 ) (y1,y2)。每个输出神经元接收来自隐藏层 2 的加权输入。输出神经元可以使用线性激活函数对于回归任务或其他激活函数如 Softmax 对于分类任务生成最终的预测值。
3.4、前向传播 前向传播Forward Propagation 3.4.1、加权和⭐ 加权和Weighted Sum 每个神经元接收所有前一层神经元的输出乘以各自的权重并加上偏置项然后计算加权和。数学表达式 z j ( l ) ∑ i 1 n ( l − 1 ) w j i ( l ) a i ( l − 1 ) b j ( l ) z_j^{(l)} \sum_{i1}^{n^{(l-1)}} w_{ji}^{(l)} a_i^{(l-1)} b_j^{(l)} zj(l)∑i1n(l−1)wji(l)ai(l−1)bj(l)公式解释 ( l ) ( l ) (l) 表示当前层 ( j ) ( j ) (j)表示当前层的神经元索引( i ) 表示前一层的神经元索引 z j ( l ) z_j^{(l)} zj(l) 表示第 ( l l l) 层第 ( j j j) 个神经元的输入加权和。 n ( l − 1 ) n^{(l-1)} n(l−1) 表示第 ( l − 1 l-1 l−1) 层的神经元数量。 w j i ( l ) w_{ji}^{(l)} wji(l) 表示从第 ( l − 1 l-1 l−1) 层第 i i i 个神经元到第 l l l 层第 j j j 个神经元的权重。 a i ( l − 1 ) a_i^{(l-1)} ai(l−1) 表示第 ( l − 1 l-1 l−1) 层第 i i i 个神经元的输出激活值。 b j ( l ) b_j^{(l)} bj(l) 表示第 l l l 层第 j j j 个神经元的偏置。
3.4.2、激活函数 激活函数Activation Function 加权和 ( z ) ( z ) (z)通过激活函数生成当前层神经元的输出。数学表达式 a j ( l ) f ( z j ( l ) ) a_j^{(l)} f(z_j^{(l)}) aj(l)f(zj(l)) a j ( l ) a_j^{(l)} aj(l) 表示第 l l l 层第 j j j 个神经元的输出激活值其中 f f f 是激活函数。
3.5、反向传播 反向传播Backward Propagation 3.5.1、计算梯度 计算梯度Compute Gradients 反向传播从输出层开始通过计算损失函数的梯度逐层向前传播误差计算每个权重和偏置的梯度。数学表达式举例说明 [ δ j ( l ) ∂ L ∂ z j ( l ) ] [ \delta^{(l)}_j \frac{\partial L}{\partial z^{(l)}_j} ] [δj(l)∂zj(l)∂L] ( δ j ( l ) ) ( \delta^{(l)}_j ) (δj(l))是第 ( l ) ( l ) (l)层第 ( j ) ( j ) (j)个神经元的误差项 ( L ) ( L ) (L)是损失函数。
3.5.2、更新权重和偏置 权重和偏置Weights and Biases 使用优化算法如梯度下降更新每个权重和偏置以最小化损失函数。数学表达式KaTeX parse error: {align*} can be used only in display mode.其中 ( η ) ( \eta ) (η)是学习率。
4、小结
什么是神经网络神经网络就是模拟人神经元的工作机理并构造仿生的神经元来解决实际问题 一个简单的神经网络包括输入层、隐藏层、输出层其中隐藏层可以有很多层每一层也可以包含数量众多的的神经元