网站怎么做现场直播视频,wordpress改织梦,公司专业设计网站,wordpress 网易博客感知机 一、感知机简介二、感知机模型2.1 感知机的基本组成2.2 求和函数2.2.1 时间总合2.2.2 空间总合 2.3 激活函数2.4 学习算法2.4.1 赫布学习规则2.4.2 Delta学习规则 三、 结论参考文献 一、感知机简介 M-P神经元模型因其对生物神经元激发过程的极大简化而成为神经网络研究… 感知机 一、感知机简介二、感知机模型2.1 感知机的基本组成2.2 求和函数2.2.1 时间总合2.2.2 空间总合 2.3 激活函数2.4 学习算法2.4.1 赫布学习规则2.4.2 Delta学习规则 三、 结论参考文献 一、感知机简介 M-P神经元模型因其对生物神经元激发过程的极大简化而成为神经网络研究的基础模型。然而由于该模型仅支持二进制输入并依赖于手动学习权重和偏置因此在实际应用中它的扩展性受到了限制无法满足更复杂的学习任务。 1949年唐纳德 ⋅ \cdot ⋅ 赫布在《行为的组织》中论述道当神经元A的轴突足够接近并反复激发神经元B时这两个神经元或其中一个神经元会发生某种生长过程或代谢变化致使二者的关联性增强。在人工神经网络中神经元之间的关联性由二者的连接权重表示。同步激发的两个神经元二者的权重增加反之则权重减少。在人工神经网络的训练中利用该可塑性可以在不使用外界监督的情况下引导网络学习提取有用特征。 受赫布规则的启发康奈尔大学心理学教授弗兰克·罗森布拉特于1958年基于M-P神经元模型提出了感知机模型。该模型不仅能够处理离散和连续数据还能够通过感知机学习算法自动调整权重这对后来的神经网络发展产生了深远影响。以下是单层感知机模型的示意图。
二、感知机模型
2.1 感知机的基本组成 感知机是神经网络的基本组成单元其基本组成包括
输入感知机采用多个输入特征每个特征代表输入数据的特征或属性权重每一个输入神经元都与一个权重相关联确定每个输入神经元对感知机输出的影响程度在训练期间这些权重会进行调整以学习最佳值偏置在输入层增加偏置项主要用于调整激活神经元所需阈值类似于改变神经元激活“起点”即使输入信号全为零偏置项也能够使神经元产生一定的激活求和函数感知机使用求和函数计算其输入的加权和激活函数激活函数的主要作用对输出进行变换使得输出落在一个特定的范围内(如阶跃函数的0和1或者符号函数的1和-1)输出感知机的最终输出是由激活函数的结果决定。例如在二元分类中输出可能表示预测类别(0或1)学习算法(权重更新规则)在训练过程中感知机通过学习算法调整其权重和偏置。一种常见的方法是感知机学习算法它根据预测输出于真实输出之间的差异来更新权重。 其中求和函数、激活函数和学习算法是感知机模型的核心。
2.2 求和函数 英国科学家查尔斯·斯科特·谢灵顿在其著作《神经系统的整合作用》中详细讨论了神经系统如何整合信息并引入了“时间总合”和“空间总合”的概念。
2.2.1 时间总合 与空间总合不同时间总合指的是神经元在短时间内接收到重复的信号时会将这些信号叠加起来。如果这些信号在时间上足够接近它们的累积效应也可能足以触发神经元的动作电位。
2.2.2 空间总合 空间总合指的是神经元接收来自不同空间位置的多个突触输入并将它们整合起来。如果这些输入信号的总和足够强大神经元就会触发动作电位。这些输入可以来自多个不同的突触并在神经元的树突或细胞体上分布。当这些突触信号同时到达时它们会在神经元内部产生叠加效应。 谢灵顿提出的空间总合概念直接影响了人工神经网络中的加权求和机制。在生物神经元中来自不同突触的信号可以被整合起来并根据总和的强度决定是否产生动作电位。这个原理在人工神经元中通过对输入信号进行加权求和的方式加以体现每个输入都乘以特定的权重并将它们求和再经过激活函数进行输出。这种机制是感知机以及更复杂的神经网络中的核心计算步骤。
2.3 激活函数 激活函数是神经元模型中不可或缺的组成部分。M-P神经元模型使用的是Heaviside函数作为激活函数但在神经网络的实际应用中还可以使用其他激活函数如符号函数和Sigmoid函数。每个函数的表达式和对应的图像如下 1. Heaviside 函数 Heaviside函数是阶跃函数其输出为0或1用于判断输入是否达到某个阈值。其表达式为 H ( x ) { 0 , x 0 1 , x ≤ 0 H(x) \begin{cases} 0, x 0 \\ 1, x \leq 0 \end{cases} H(x){0,1,x0x≤0 函数图像这是一个二值化函数当输入小于0时输出0大于等于0时输出1,具体函数图像如下所示。
def heaviside(x):y np.zeros(x.shape)y[x 0] 0y[x 0] 1return y2. 符号函数 (Signum function) 符号函数是另一种常用的激活函数它可以输出-1或1用于二分类问题。其表达式为 S i g n ( x ) { − 1 , x 0 1 , x ≤ 0 Sign(x) \begin{cases} -1, x 0 \\ 1, x \leq 0 \end{cases} Sign(x){−1,1,x0x≤0 函数图像当输入小于0时输出-1输入大于等于0时输出1输出仅为两个离散值,具体函数图像如下所示。
def signum(x):y np.zeros(x.shape)y[x 0] -1y[x 0] 1return y3. Sigmoid 函数 Sigmoid函数是常用于神经网络中的平滑激活函数其输出为连续值介于0和1之间特别适合用于处理概率输出。其表达式为 σ ( x ) 1 1 e − x \sigma(x)\frac{1}{1e^{-x}} σ(x)1e−x1 函数图像Sigmoid函数的图像呈S形在极端情况下输入为负无穷或正无穷时分别趋近于0或1但从不过界,具体函数图像如下所示。
def sigmoid(x):return 1 / (1 np.exp(-x))2.4 学习算法 感知机学习算法种类繁多其中最著名且经典的当属赫布学习算法和Delta学习算法。
2.4.1 赫布学习规则 赫布学习算法是神经科学和人工智能中一种重要的学习规则由加拿大心理学唐纳德 ⋅ \cdot ⋅ 赫布于1949年提出。作为一种无监督学习方法因为它不需要外部的标签或反馈来指导而是仅依赖于神经元活动的关联性。在人工神经网络中赫布学习的数学表达形式如下 w i w i o l d △ w i w_{i} w_{i}^{old} \triangle w_{i} wiwiold△wi △ w i x i y \triangle w_{i} x_i y △wixiy 其中 △ w i \triangle w_{i} △wi 表示神经元 i i i 的权重变化 x i x_i xi 表示神经元 i i i 的输入 y y y 表示神经元的输出。 为了帮助理解赫布学习算法以下是赫布学习过程的示意图直观展示了该算法的典型案例。
2.4.2 Delta学习规则 Delta学习算法是Widrow和Hoff于1960年提出是一种经典的学习算法广泛应用于神经网络训练。该规则的基本思想是根据节点输出与期望输出之间的误差来调整权重具体数学表达式如下 w i w i o l d △ w i w_{i} w_{i}^{old} \triangle w_{i} wiwiold△wi △ w i ( y − y ^ ) x i \triangle w_{i} (y - \hat{y}) x_i △wi(y−y^)xi 其中 y ^ \hat{y} y^ 表示预测结果。
三、 结论 感知机算法解决了M-P模型二进制输入问题和人工手动调参问题为深度学习的发展奠定了坚实的基础。
参考文献
[1] 张玉宏. 深度学习之美[M]. 北京: 电子工业出版社, 2018:164-178.